Chinaunix首页 | 论坛 | 博客
  • 博客访问: 55982
  • 博文数量: 49
  • 博客积分: 1125
  • 博客等级: 少尉
  • 技术积分: 627
  • 用 户 组: 普通用户
  • 注册时间: 2012-05-31 15:51
文章分类
文章存档

2014年(1)

2013年(11)

2012年(37)

我的朋友

分类: 网络与安全

2013-01-04 16:57:15

我们花费心思引来蜘蛛,无非是希望其索引网站。而一个可爬行新高的网站意味着蜘蛛索引极具深度及广度,从而也会使其为我们带来更多的收录及更均衡的权重。那如何建立一个高爬行性的网站呢?Mvmmall多用户商城总结通过以下五步提高网站的可爬行性。


  一、网站层次结构




  要利于蜘蛛爬行,首先得有一个清晰的层次结构。树形结构是比较理想的网站结构,蜘蛛能够很好的理解并爬行。采用首页-索引页-内容页的形式有利于用户在最短的时间内找到需求的信息。而且由于相关性极强的内容在同一栏目下,提高了聚合度,这样更有利于蜘蛛的爬行整合。同时,树形结构应该遵循层数尽可能少的原则。


  二、网站导航、次导航、面包屑


  网站导航是网站不可或缺的重要组成部分。采用统一的导航栏不仅有助于用户体验,更有助于蜘蛛识别。由于蜘蛛能有效识别并爬行css。因此,对于导航栏字体使用font-weight属性是有效的。但切勿因为追求效果而采用js、ajax、inframe、flash等蜘蛛无法有效爬行的技术。次导航同样可以使用font-weight属性表明重要性,而面包屑导航也是必不可少的,要注意尽量避免使用url链接,而更多采用锚文本链接。


  三、内容页


  新的内容应尽量出现在蜘蛛频繁更新的地方。因此,内容页应按ID或发布时间排序。而每篇内容页应和其他页面有效链接。可以在内容结束后加入上一篇、下一篇窜连上下篇文章。同时可以增加相关阅读、推荐阅读等栏目,这样更有助于蜘蛛索引。


  四、标签、标签云


  标签、标签云是提高聚合类内容可爬行性的有效途径。而标签云采用不同颜色、不同大小、不同粗细以区分不同用户关注度的内容。因该说无论从用户体验还是索引的主次都是有益的。但不应为追求标签云效果,而采用jquery等技术,这样就失去了标签云的SEO意义。


  五、Sitemap


  Sitemap文件对于蜘蛛的索引是很重要的。Sitemap的制作不是本文讨论的重点。如果你的站点规模不是很大,请尽量采用.xml格式,并放置于根目录下。百度sitemap工具正在内测中,因此暂时无法提交sitemap文件,我们只能采用提交网页的方式,提交新的页面。


阅读(114) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~