分类: LINUX
2008-04-27 11:28:35
当我们在浏览网页时,经常会发现一些好的站点,希望尽量保存该网站的内容,如果你还在通过浏览器保存每一页的内容,你就太老土了,呵呵。 --------------------------------------------------------- 声明: 此文为原创,欢迎转载,转载请保留如下信息 作者:聂飞(afreez) 北京-中关村 联系方式: (欢迎与作者交流) 初次发布时间:2006-06-17 不经本人同意,不得用语商业或赢利性质目的,否则,作者有权追究相关责任! --------------------------------------------------------- GNU Wget是一款自由软件,可以下载网络上的文件,支持HTTP,HTTPS,FTP协议。我们只需要加入几个参数就可以轻松的把一个网站上的“宝贝”都download自己的机器上,很神气吧。废话少说,我们来举个例子说明。 假如我们要下载网站的内容,则可以在linux或者windows的linux虚拟机或者Cygwin的终端里输入: $wget -r -p -np -k 经过漫长的等待(时间的长短依赖于目标的大小和网速的快慢),在当前目录里,你就会发现多了一个文件夹,里面当然就是你所需要的东西了。 还等什么,快去试试吧!!!!!!!!! 有什么问题可以在这里(我的blog)给我留言!如果感觉非常之爽,别忘了“顶”一下:) 具体的选项含义可以在linux里面 $man wget ,里面有详细的说明。本文出自 51CTO.COM技术博客 |