wget命令详解
1、使⽤wget下载单个⽂件
以下的例⼦是从⽹络下载⼀个⽂件并保存在当前⽬录
wget /wordpress-3.1-zh_CN.zip
在下载的过程中会显⽰进度条,包含(下载完成百分⽐,已经下载的字节,当前下载速度,剩余下载时间)。
2、使⽤wget -O下载并以不同的⽂件名保存,
wget默认会以最后⼀个符合”/”的后⾯的字符来命令,对于动态链接的下载通常⽂件名会不正确。
错误:下⾯的例⼦会下载⼀个⽂件并以名称download.php?id=1080保存
wget s.bz/download?id=1
即使下载的⽂件是zip格式,它仍然以download.php?id=1080命令。
正确:为了解决这个问题,我们可以使⽤参数-O来指定⼀个⽂件名:
wget -O wordpress.zip s.bz/download.php?id=1080
3、使⽤wget –limit -rate限速下载
当你执⾏wget的时候,它默认会占⽤全部可能的宽带下载。但是当你准备下载⼀个⼤⽂件,⽽你还需要下载其它⽂件时就有必要限速了。
wget –limit-rate=300k /wordpress-3.1-zh_CN.zip
4、使⽤wget -c断点续传
使⽤wget -c重新启动下载中断的⽂件:
wget -c /wordpress-3.1-zh_CN.zip
对于我们下载⼤⽂件时突然由于⽹络等原因中断⾮常有帮助,我们可以继续接着下载⽽不是重新下载⼀个⽂件。需要继续中断的下载时可以使⽤-c参数。
5、使⽤wget -b后台下载
对于下载⾮常⼤的⽂件的时候,我们可以使⽤参数-b进⾏后台下载。
wget -b /wordpress-3.1-zh_CN.zip
Continuing in background, pid 1840.
Output will be written to `wget-log’.
你可以使⽤以下命令来察看下载进度
tail -f wget-log
6、伪装代理名称下载
有些⽹站能通过根据判断代理名称不是浏览器⽽拒绝你的下载请求。不过你可以通过–user-agent参数伪装。
wget –user-agent=”Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko)
Chrome/10.0.648.204 Safari/534.16″下载链接
7、使⽤wget –spider测试下载链接
当你打算进⾏定时下载,你应该在预定时间测试下载链接是否有效。我们可以增加–spider参数进⾏检查。
wget –spider URL
如果下载链接正确,将会显⽰
wget –spider URL
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response… 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled — not retrieving.
这保证了下载能在预定的时间进⾏,但当你给错了⼀个链接,将会显⽰如下错误
wget –spider url
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response… 404 Not Found
Remote file does not exist — broken link
chrome直接下载你可以在以下⼏种情况下使⽤spider参数:
定时下载之前进⾏检查
间隔检测⽹站是否可⽤
检查⽹站页⾯的死链接
8、使⽤wget –tries增加重试次数
如果⽹络有问题或下载⼀个⼤⽂件也有可能失败。wget默认重试20次连接下载⽂件。如果需要,你可以使⽤–tries增加重试次数。wget –tries=40 URL
9、使⽤wget -i下载多个⽂件
⾸先,保存⼀份下载链接⽂件
cat >
url1
url2
url3
url4
接着使⽤这个⽂件和参数-i下载
wget -
10、使⽤wget –mirror镜像⽹站
下⾯的例⼦是下载整个⽹站到本地。
wget –mirror -p –convert-links -P ./LOCAL URL
–miror:开户镜像下载
-
p:下载所有为了html页⾯显⽰正常的⽂件
–convert-links:下载后,转换成本地的链接
-P ./LOCAL:保存所有⽂件和⽬录到本地指定⽬录
11、使⽤wget –reject过滤指定格式下载
你想下载⼀个⽹站,但你不希望下载图⽚,你可以使⽤以下命令。
wget –reject=gif url
12、使⽤wget -o把下载信息存⼊⽇志⽂件
你不希望下载信息直接显⽰在终端⽽是在⼀个⽇志⽂件,可以使⽤以下命令:
wget -o download.log URL
13、使⽤wget -Q限制总下载⽂件⼤⼩
当你想要下载的⽂件超过5M⽽退出下载,你可以使⽤以下命令:
wget -Q5m -
这个参数对单个⽂件下载不起作⽤,只能递归下载时才有效。
14、使⽤wget -r -A下载指定格式⽂件
可以在以下情况使⽤该功能
下载⼀个⽹站的所有图⽚
下载⼀个⽹站的所有视频
下载⼀个⽹站的所有PDF⽂件
wget -r -A.pdf url
15、使⽤wget FTP下载
你可以使⽤wget来完成ftp链接的下载。
使⽤wget匿名ftp下载
wget ftp-url
使⽤wget⽤户名和密码认证的ftp下载
wget –ftp-user=USERNAME –ftp-password=PASSWORD url
1、下载整个http或者ftp站点。
wget ur.url/here
这个命令可以将ur.url/here ⾸页下载下来。使⽤-x会强制建⽴服务器上⼀模⼀样的⽬录,如果使⽤-nd参数,那么服务器上下载的所有内容都会加到本地当前⽬录。
wget -r ur.url/here
这个命令会按照递归的⽅法,下载服务器上所有的⽬录和⽂件,实质就是下载整个⽹站。这个命令⼀定要⼩⼼使⽤,因为在下载的时候,被下载⽹站指向的所有地址同样会被下载,因此,如果这个⽹站引⽤了其他⽹站,那么被引⽤的⽹站也会被下载下来!基于这个原因,这个参数不常⽤。可以⽤-l number参数来指定下载的层次。例如只下载两层,那么使⽤-l 2。
要是您想制作镜像站点,那么可以使⽤-m参数,例如:wget -m ur.url/here
这时wget会⾃动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读⼊并按的规定来执⾏。
2、断点续传。
当⽂件特别⼤或者⽹络特别慢的时候,往往⼀个⽂件还没有下载完,连接就已经被切断,此时就需要断点续传。wget的断点续传是⾃动的,只需要使⽤-c参数,例如:
wget -c the.url.of/incomplete/file
使⽤断点续传要求服务器⽀持断点续传。-t参数表⽰重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表⽰⽆穷次重试,直到连接成功。-T参数表⽰超时等待时间,例如-T 120,表⽰等待120秒连接不上就算超时。
3、批量下载。
如果有多个⽂件需要下载,那么可以⽣成⼀个⽂件,把每个⽂件的URL写⼀⾏,例如⽣成⽂件,然后⽤命令:wget -
这样就会把⾥⾯列出的每个URL都下载下来。(如果列的是⽂件就下载⽂件,如果列的是⽹站,那么下载⾸页)
4、选择性的下载。
可以指定让wget只下载⼀类⽂件,或者不下载什么⽂件。例如:
wget -m –reject=gif target.web.site/subdirectory
表⽰下载target.web.site/subdirectory,但是忽略gif⽂件。–accept=LIST 可以接受的⽂件类型,–reject=LIST拒绝接受的⽂件类型。
5、密码和认证。
wget只能处理利⽤⽤户名/密码⽅式限制访问的⽹站,可以利⽤两个参数:
–http-user=USER设置HTTP⽤户
–http-passwd=PASS设置HTTP密码
对于需要证书做认证的⽹站,就只能利⽤其他下载⼯具了,例如curl。
6、利⽤代理服务器进⾏下载。
如果⽤户的⽹络需要经过代理服务器,那么可以让wget通过代理服务器进⾏⽂件的下载。此时需要在当前⽤户的⽬录下创建⼀
个.wgetrc⽂件。⽂件中可以设置代理服务器:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
分别表⽰http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使⽤:
–proxy-user=USER设置代理⽤户
–proxy-passwd=PASS设置代理密码
这两个参数。
使⽤参数–proxy=on/off 使⽤或者关闭代理。
wget还有很多有⽤的功能,需要⽤户去挖掘。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论