robots文件的有无可以衡量一个网站优化做的是否到位。河北SEO星尔认为:有robots文件的也许网站优化做的不好,但是如果网站没有robots那么优化做的一定不好。因为有些网站无关链接是要及时来屏蔽掉的,如果不屏蔽反而不好。
一:robots屏蔽掉主题目录链接
通常情况下我们使用的网站都是和程序单独分开的,比如河北SEO博客用的Wordpress程序就是主题分开的,dedecms、discuz等很多开源程序都是这样的。主题目的对我们网站优化是没有任何作用的,也是无关链接所以我们就要用robots屏蔽掉的。
二:robots屏蔽掉后台登录目录链接
后台登录目录文件主要是网站管理员登录后台,然后对网站进行修改和维护的,所以一般也不会展示在前台的,也是对我们网站优化没有作用的,我们都认为是无关链接也要用robots来屏蔽掉。这个结合自己网站程序的后台目录文件来屏蔽就可以的。
三:robots屏蔽掉重复的链接
和河北SEO博客一样,WordPress通常情况下我们都是使用伪静态,这就导致静态链接和动态链接都能打开网站,这个对网站优化也是非常不利的,所以就要用robots文件来屏蔽掉动态链接。和Wordpress一样还有很多程序要是不支持纯静态,只能使用伪静态,这样就要也对动态链接进行屏蔽掉,如果是dedecms就不用了,它是纯静态的。
总结:robots文件对网站优化来说是非常重要的,仔细分析网站结构对无关链接进行屏蔽,巧用robots屏蔽无关链接对网站优化和排名是很有必要的。如果有什么不是很懂可以看看河北SEO的robots文件。
阅读(1160) | 评论(0) | 转发(0) |