Chinaunix首页 | 论坛 | 博客
  • 博客访问: 102128232
  • 博文数量: 19283
  • 博客积分: 9968
  • 博客等级: 上将
  • 技术积分: 196062
  • 用 户 组: 普通用户
  • 注册时间: 2007-02-07 14:28
文章分类

全部博文(19283)

文章存档

2011年(1)

2009年(125)

2008年(19094)

2007年(63)

分类: LINUX

2008-04-27 11:28:35


 
当我们在浏览网页时,经常会发现一些好的站点,希望尽量保存该网站的内容,如果你还在通过浏览器保存每一页的内容,你就太老土了,呵呵。
---------------------------------------------------------
声明:
此文为原创,欢迎转载,转载请保留如下信息
作者:聂飞(afreez) 北京-中关村
联系方式: (欢迎与作者交流)
初次发布时间:2006-06-17
不经本人同意,不得用语商业或赢利性质目的,否则,作者有权追究相关责任!

---------------------------------------------------------
GNU Wget是一款自由软件,可以下载网络上的文件,支持HTTP,HTTPS,FTP协议。我们只需要加入几个参数就可以轻松的把一个网站上的“宝贝”都download自己的机器上,很神气吧。废话少说,我们来举个例子说明。
假如我们要下载网站的内容,则可以在linux或者windows的linux虚拟机或者Cygwin的终端里输入:

$wget -r -p -np -k

经过漫长的等待(时间的长短依赖于目标的大小和网速的快慢),在当前目录里,你就会发现多了一个文件夹,里面当然就是你所需要的东西了。
还等什么,快去试试吧!!!!!!!!!

有什么问题可以在这里(我的blog)给我留言!如果感觉非常之爽,别忘了“顶”一下:)
具体的选项含义可以在linux里面 $man wget ,里面有详细的说明。
阅读(262) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~