Chinaunix首页 | 论坛 | 博客
  • 博客访问: 211609
  • 博文数量: 39
  • 博客积分: 420
  • 博客等级: 下士
  • 技术积分: 457
  • 用 户 组: 普通用户
  • 注册时间: 2010-06-01 10:22
文章分类

全部博文(39)

文章存档

2015年(15)

2014年(11)

2013年(1)

2012年(2)

2011年(1)

2010年(9)

我的朋友

分类: LINUX

2010-11-10 00:40:55

wget可以把整个网站下载下来
格式:wget 参数  url地址
参数有:-c 断点续传
       -r,--recursive 下载整个网站、目录(小心使用)
       -b:让wget在后台运行,记录文件写在当前目录下"wget-log"文件中
       -np:只下载目标站点指定目录及其子目录的内容,不下载其他外连接的页面
批量下载:就是把所有要下载的url保存到一个文本文档中,download.txt
        使用:wget -crnp download.txt
             即可把download.txt所包含的链接下载下来
阅读(1226) | 评论(1) | 转发(0) |
给主人留下些什么吧!~~

chinaunix网友2010-11-10 15:16:26

很好的, 收藏了 推荐一个博客,提供很多免费软件编程电子书下载: http://free-ebooks.appspot.com