Chinaunix首页 | 论坛 | 博客
  • 博客访问: 117072
  • 博文数量: 109
  • 博客积分: 2510
  • 博客等级: 少校
  • 技术积分: 1330
  • 用 户 组: 普通用户
  • 注册时间: 2009-07-20 16:56
文章分类

全部博文(109)

文章存档

2011年(1)

2010年(24)

2009年(84)

我的朋友

分类:

2009-10-28 08:48:49

   已经有很多网友问我百度如何优化了,不过我一直不清楚如何来写更合适。

  有好几个原因。首先是,很多知识,我不先介绍一下的话,到时候我写出来大家不容易理解。就如我博客刚开的时候,我就想写《SEO案例:锚文本、关键字、nofollow、Web标准化》这篇文章,但是如果一开始不讲一下为什么要重视锚文本、如何选关键字、nofollow的作用、为什么要标准化的话,很多人可能会觉得我只是讲了一个特别注意细节的案例。

  所以我会先把google的优势讲明白,把搜索引擎是怎么运作的讲明白,然后才能把如何做百度优化讲明白。我博客里的很多文章都是从google的角度出发来讲SEO的,但是你都可以思考一下同样的事情要是百度来处理的话,会如何去解决。

  第二个原因就是百度优化和google优化在技术上有80%是相似的,所以不用特别的区分是百度优化还是google优化。而且,做一个网站的SEO工作,那些流程和方法都是一样的。说起相似性,你就可以看到:一个在google上排名很强势的网站,在百度上也会有不错的排名。还有,百度前几年不是一直宣称google侵犯了百度在超链分析法上的专利吗,虽然很荒谬,但是可以看出百度也是注重外部链接的。而且现在还有一个趋势就是,百度在算法上越来越模仿google。

  另一个原因就是其他方面的。互联网的圈子其实很小,百度排名确实有一些技巧,但是我今天在这里说明的技巧,明天大家就不能用了。

  总体来说,百度的优化要比google英文的优化容易得多。现在我主要从事的英文优化,同时也在做部分百度优化的工作。在百度上,基本上现在只要特别注意去优化的词语,不是非常热门的话,非推广的搜索结果都排在第一了。(但是对于一个大型网站的话,这样特别注意优化热门词语,会让你丢失掉原本属于你的50%以上的流量。)而我用的一些技巧,都是在英文SEO领域用滥了的技巧。

  如果能把英文的SEO做透的话,做百度的优化感觉很容易。很早以前,在一些SEOer眼里,百度优化,非推广的搜索结果排在第一不是难事,要保持第一就很伤脑筋了。

  接下来谈一下影响你做好百度优化的几个因素。

  1,百度的搜索技术很糟糕。

  不管是在爬虫,还是索引,还是排序算法上都有很多缺陷。比如搜索一个词语,同一个网站占据前几十个搜索结果,就是一个很低级的错误。而很多大型网站,也应该被百度的爬虫把服务器“ 攻击”得不行了吧。反作弊措施也很初级,所以一大批作弊的网站照样可以活的很好,对于一贯不作弊来做SEO的人来说,这点无可奈何。这都是技术上的,还有的就是人为的。比如很多百度认为“影响业务”的网站,无论从抓取率还是排序上都是被分配了特殊的权重的,导致这些网站的SEO流量怎么也做不起来。这样被区别对待的网站有很多,国内好几家著名网站包括阿里巴巴中文站都是这样,所以阿里巴巴中文站的SEO流量中,google来的流量反而比百度高很多。而百度自己的业务,却被赋予越来越高的权重,甚至自己网站上很多明显的垃圾页面,照样有好的排名。

  尽管我是不主张SEO上作弊的,但是如果是小网站在百度上作SEO,在注意百度的一些反作弊措施下,就适当用一些方法吧。

  2,服务器效率低

  《google Caffeine(咖啡因) 更新了什么》揭示了数据中心的效率是搜索引擎的命脉。而百度的数据中心无疑是没什么亮点的。经常性的当机和数据丢失,使国内的很多做SEO的人以为是自己的网站有了作弊问题而从搜索引擎消失了。一个大型的服务器集群,管理起来特别考验一家公司的技术实力。管理数据中心很像“打地鼠”的游戏,这边几个当掉的服务器刚刚解决,那边又有服务器当机了。google在这方面也遇到过很多问题,得益于他们的技术能力,现在都得到了不错的解决。虽然也有数据丢失,但是平均每份数据都有2份备用,所以在百度上出现的那种突然大量收录消失了的状况,在google上是很难见到的。

  我经常看到很多人对于网站在百度上的收录量患得患失,其实很多时候,都不是因为百度处罚你。而是他们自己出了问题。

  3,反作弊措施

  无论百度还是google,SEO要做得好都要从这个搜索引擎的角度来看待你做的SEO优化工作。在百度上作SEO,心里要时刻想着它有可能会用什么样的反作弊措施来检查你的网站。这个是在百度上做好SEO的秘籍。

  举一个我操作过的案例:

  以前给一个国内比较有名的网站做SEO,因为比较遵守这条规则,把总的SEO流量从6万做到267万。(之所以流量翻了40多倍,还有一部分原因是他们以前喜欢用ajax技术,妨碍了收录。)后来流量一下子又降到了30万左右,因为那个公司有特殊的渠道,得到了百度内部的意见说网站优化过度,我当时特别纳闷怎么就优化过度了。后来就想,如果我是百度的话,我会如何判断一个网站优化过度呢?从国内那时的SEO现状来看,我会这么判断:因为每个做 SEO的人,基本上都会去改title, keywords, description。那我首先设置一个过滤条件,就是把那种每个网页上title, keywords, description都写了大量内容的网站特别对待,因为这些网站有了SEO的企图,所以也会在外部链接等等其他因素上作很多优化的动作的。这种被列入嫌疑的网站,只要流量有异常的大量增长,就开始严格清理。那个网站,在其他方面都无异常,甚至没有在title, keywords, description重复一次关键词,唯独每个网页, keywords, description都是写了很丰富的内容的,当时为了写这些内容还花费了大量的时间,因为每个网页都要写得不一样。

  想清楚了这个,我就把那种能不写 keywords, description 的就不写。甚至做了一个很大胆的决定,就是所有的网页都不写keywords。因为我如果是百度的话,我绝对不会考虑把keywords作为影响排名的因素的。description之所以不抛弃,是因为在搜索结果里,人还是需要阅读到的。这样改动后一个月,流量就恢复了,直到我离开那家公司前,SEO流量都还稳定在200万以上。

  因为这篇文章实在是罗嗦了,以后再讲一些其他案例。不久前Matt Cutts在博客里也说google不把keywords作为排名的因素。如果你在第一线实践的话,这些东西早就知道了。我以前就想把这个写出来,没想到Matt Cutts抢先说了。

  4,人工干预

  百度是一个很仇视SEO的搜索引擎,在他们眼里,SEO妨碍了他们的收益。这与我在《怎么样去学SEO》一文中提到的google与网站共赢的策略完全相反。google也有人工审核,但是是奔着处理作弊网站而来的,而且尺度还很宽松的。百度的人工干预会让你在做一些热门词语的时候非常麻烦,这点就不多说,大家都经历过。

  这4个影响你在百度上作SEO的因素都是客观的。还有一个因素就是竞价排名,但是这个在慢慢消退。

  不过还是可以在百度上把SEO做得很好的,那就是整体把握一个网站的策略,方法。SEO应该做的是给网站带来利益,要在各种条件和资源的限制下,把网站的利益最大化。这是才是一个SEOer应该追求的目标,而不是今天有多少收录,哪个热门词没有排上去等等。我还是慢慢一个个的讲吧。

文章来源:

阅读(235) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~