Chinaunix首页 | 论坛 | 博客
  • 博客访问: 5096043
  • 博文数量: 921
  • 博客积分: 16037
  • 博客等级: 上将
  • 技术积分: 8469
  • 用 户 组: 普通用户
  • 注册时间: 2006-04-05 02:08
文章分类

全部博文(921)

文章存档

2020年(1)

2019年(3)

2018年(3)

2017年(6)

2016年(47)

2015年(72)

2014年(25)

2013年(72)

2012年(125)

2011年(182)

2010年(42)

2009年(14)

2008年(85)

2007年(89)

2006年(155)

分类: LINUX

2011-12-18 12:50:00

 
wget 是 linux 最常用的下载命令,  一般的使用方法是: wget  +  空格  +
要下载文件的 url路径
 
例如: # wget
 
简单说一下-c 参数,  这个也非常常见,  可以断点续传,  如果不小心终
止了,  可以继续使用命令接着下载
例如: # wget -c
 
下面详细阐述 wget 的用法:
 
wget 是一个从网络上自动下载文件的自由工具。它支持 HTTP,
HTTPS 和 FTP 协议,可以使用 HTTP 代理.
 
所谓的自动下载是指,wget 可以在用户退出系统的之后在后台执行。
这意味这你可以登录系统,启动一个 wget 下载任务,然后退出系统,
wget 将在后台执行直到任务完成,相对于其它大部分浏览器在下载
大量数据时需要用户一直的参与,这省去了极大的麻烦。
 
wget 可以跟踪 HTML 页面上的链接依次下载来创建远程服务器的本
地版本,完全重建原始站点的目录结构。这又常被称作"递归下载"。 
 
在递归下载的时候,wget 遵循 Robot Exclusion标准(/robots.txt). wget
可以在下载的同时,将链接转换成指向本地文件,以方便离线浏览。 
 
wget 非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应
性.如果是由于网络的原因下载失败,wget 会不断的尝试,直到整个
文件下载完毕。如果是服务器打断下载过程,它会再次联到服务器上
从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载
大文件非常有用。
wget 的常见用法
 
wget 的使用格式
 
Usage: wget [OPTION]... ...
 
      *  用 wget 做站点镜像:
 
wget -r -p -np -k [url]~usr_name/
#  或者
wget -m
 
      *  在不稳定的网络上下载一个部分下载的文件,以及在空闲时段
下载  
 
 
wget -t 0 -w 31 -c -o down.log &
#  或者从 filelist 读入要下载的文件列表
wget  -t  0  -w  31  -c  -B    -i  filelist.txt  -o
down.log &
 
上面的代码还可以用来在网络比较空闲的时段进行下载。 我的用法是:
在mozilla中将不方便当时下载的URL链接拷贝到内存中然后粘贴到
文件 filelist.txt 中,在晚上要出去系统前执行上面代码的第二条。
 
      *  使用代理下载
 
wget -Y on -p -k
 
代理可以在环境变量或 wgetrc 文件中设定
 
#  在环境变量中设定代理
export PROXY=
#  在~/.wgetrc 中设定代理
http_proxy =
ftp_proxy =
  
 
wget 各种选项分类列表
 
      *  启动
 
-V,  --version              显示 wget 的版本后退出
  -h,  --help                  打印语法帮助
  -b,  --background          启动后转入后台执行
  -e,  --execute=COMMAND   执行`.wgetrc'格式的命令, wgetrc 格式参
见/etc/wgetrc 或~/.wgetrc
 
      *  记录和输入文件
 
-o,  --output-file=FILE      把记录写到 FILE 文件中
  -a,  --append-output=FILE   把记录追加到 FILE 文件中
  -d,  --debug                      打印调试输出
  -q,  --quiet                      安静模式(没有输出)
  -v,  --verbose                  冗长模式(这是缺省设置)
  -nv, --non-verbose              关掉冗长模式,但不是安静模式
  -i,  --input-file=FILE       下载在 FILE 文件中出现的 URLs
  -F,  --force-html              把输入文件当作 HTML格式文件对待
  -B,  --base=URL                  将 URL 作为在-F  -i 参数指定的文件中出
现的相对链接的前缀  
 
          --sslcertfile=FILE      可选客户端证书
          --sslcertkey=KEYFILE   可选客户端证书的 KEYFILE
          --egd-file=FILE          指定 EGD socket 的文件名
 
      *  下载
 
--bind-address=ADDRESS   指定本地使用地址(主机名或 IP,当本地
有多个 IP 或名字时使用)
  -t,  --tries=NUMBER              设定最大尝试链接次数(0  表示无限制).
  -O    --output-document=FILE   把文档写到 FILE 文件中
  -nc, --no-clobber                  不要覆盖存在的文件或使用.#前缀
  -c,  --continue                   接着下载没下载完的文件
          --progress=TYPE              设定进程条标记
  -N,  --timestamping              不要重新下载文件除非比本地文件新
  -S,  --server-response          打印服务器的回应
          --spider                      不下载任何东西
  -T,  --timeout=SECONDS          设定响应超时的秒数
  -w,  --wait=SECONDS              两次尝试之间间隔 SECONDS 秒
          --waitretry=SECONDS       在重新链接之间等待 1...SECONDS

          --random-wait               在下载之间等待 0...2*WAIT 秒
  -Y,  --proxy=on/off              打开或关闭代理  
 
  -Q,  --quota=NUMBER              设置下载的容量限制
          --limit-rate=RATE          限定下载输率
 
      *  目录
 
-nd  --no-directories               不创建目录
  -x,  --force-directories           强制创建目录
  -nH, --no-host-directories          不创建主机目录
  -P,  --directory-prefix=PREFIX   将文件保存到目录  PREFIX/...
          --cut-dirs=NUMBER              忽略  NUMBER 层远程目录
 
      * HTTP  选项
 
--http-user=USER       设定 HTTP 用户名为  USER.
          --http-passwd=PASS      设定 http 密码为  PASS.
  -C,  --cache=on/off          允许/不允许服务器端的数据缓存 (一般情
况下允许).
  -E,  --html-extension       将所有 text/html文档以.html 扩展名保存
          --ignore-length          忽略  `Content-Length'头域
          --header=STRING          在 headers 中插入字符串  STRING
          --proxy-user=USER      设定代理的用户名为  USER
          --proxy-passwd=PASS   设定代理的密码为  PASS  
 
          --referer=URL           在 HTTP 请求中包含  `Referer: URL'头
  -s,  --save-headers          保存 HTTP 头到文件
  -U,  --user-agent=AGENT      设定代理的名称为  AGENT 而不是
Wget/VERSION.
          --no-http-keep-alive  关闭  HTTP 活动链接 (永远链接).
          --cookies=off           不使用  cookies.
          --load-cookies=FILE   在开始会话前从文件  FILE中加载cookie
          --save-cookies=FILE   在会话结束后将  cookies 保存到  FILE 文
件中
 
      * FTP  选项
 
-nr, --dont-remove-listing   不移走  `.listing'文件
  -g,  --glob=on/off              打开或关闭文件名的  globbing机制
          --passive-ftp              使用被动传输模式 (缺省值).
          --active-ftp               使用主动传输模式
          --retr-symlinks           在递归的时候,将链接指向文件(而不是目
录)
 
      *  递归下载
 
-r,  --recursive              递归下载--慎用!  
 
  -l,  --level=NUMBER          最大递归深度  (inf  或  0  代表无穷).
          --delete-after          在现在完毕后局部删除文件
  -k,  --convert-links       转换非相对链接为相对链接
  -K,  --backup-converted   在转换文件 X 之前,将之备份为  X.orig
  -m,  --mirror                  等价于  -r -N -l inf -nr.
  -p,  --page-requisites      下载显示 HTML 文件的所有图片
 
      *  递归下载中的包含和不包含(accept/reject)
 
-A,  --accept=LIST                      分号分隔的被接受扩展名的列表
  -R,  --reject=LIST                      分号分隔的不被接受的扩展名的列表
  -D,  --domains=LIST                   分号分隔的被接受域的列表
          --exclude-domains=LIST          分号分隔的不被接受的域的列表
          --follow-ftp                      跟踪 HTML 文档中的 FTP 链接
          --follow-tags=LIST              分号分隔的被跟踪的 HTML 标签的
列表
  -G,  --ignore-tags=LIST              分号分隔的被忽略的HTML标签的列

  -H,  --span-hosts                      当递归时转到外部主机
  -L,  --relative                          仅仅跟踪相对链接
  -I,  --include-directories=LIST   允许目录的列表
  -X,  --exclude-directories=LIST   不被包含目录的列表  
 
  -np, --no-parent                       不要追溯到父目录
 
阅读(2650) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~