Chinaunix首页 | 论坛 | 博客
  • 博客访问: 89873
  • 博文数量: 22
  • 博客积分: 2011
  • 博客等级: 大尉
  • 技术积分: 260
  • 用 户 组: 普通用户
  • 注册时间: 2008-06-12 11:16
文章分类

全部博文(22)

文章存档

2010年(1)

2009年(6)

2008年(15)

我的朋友

分类: 系统运维

2008-10-14 10:10:31


怎么写robots.txt文件? 
robots.txt是个简单的文本文件,您只要标明“谁不能访问哪些链接”即可。 
在文件的第一行写: 
User-Agent: * 
这就意味着向所有的爬虫开放。需要注意的是一个robots.txt文件里只能有一个"User-Agent: *"。 
User-Agent: baidu 
这就告诉了爬虫下面的描述是针对名叫baidut的爬虫。

接下来是不希望被访问的链接前缀。例如: 
Disallow: /private 
这就告诉爬虫不要抓取以"/private"目录下的所有链接。如果您写成: 
Disallow: / 
则表明整个站点都不希望被访问。您也可以分多行来指定不希望被抓取的链接前缀,例如: 
Disallow: /abc 
Disallow: /cde 
那么所有以"/abc"和"/cde"开头的链接都不会被访问了。 

最后形成的robots.txt文件如下: 
User-Agent: baidu 
Disallow: /tmp 
Disallow: /private 

请注意,如果您的robots.txt文件里有中文等非英语字符,请确定该文件是由UTF-8编码编写。
阅读(634) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~