wget
- 格式:rtf
- 大小:17.29 KB
- 文档页数:3
wgetwget是一个从网络上自动下载文件的自由工具,支持通过HTTP、HTTPS、FTP三个最常见的TCP/IP协议下载,并可以使用HTTP代理。
目录-q,--quiet 不显示输出信息;-i,--input-file=FILE 从文件中取得URL;例1:下载首页并且显示下载信息wget -d例2:下载首页并且不显示任何信息wget -q例3:下载filelist.txt中所包含的链接的所有文件wget -i filelist.txtwget -np -m -l 5 不下载本站所链接的其它站点内容,5级目录结构下载参数下载参数定义下载重复次数、保存文件名等。
-t,--tries=NUMBER 是否下载次数(0表示无穷次)-O --output-document=FILE保存下载日志到文件FILE-nc, --no-clobber 不要覆盖已经存在的文件-N,--timestamping只下载比本地新的文件-T,--timeout=SECONDS 设置超时时间-Y,--proxy=on/off 关闭代理例:下载的首页并将下载过程中的的输入信息保存到test.htm文件中wget -O test.html目录参数目录参数主要设置下载文件保存目录与原来文件(服务器文件)的目录对应关系;-nd --no-directories 不建立目录-x,--force-directories 强制建立目录可能现在我们对这里的目录还不是很了解,我们来看一个举例例:下载的首页,并且保持网站结构wget -xHTTP参数HTTP参数设置一些与HTTP下载有关的属性。
--http-user=USER设置HTTP用户--http-passwd=PASS设置HTTP密码--proxy-user=USER设置代理用户--proxy-passwd=PASS设置代理密码以上参数主要设置HTTP和代理的用户、密码;递归参数设置在下载一个网站或者网站的一个目录的时候,我们需要知道的下载的层次,这些参数就可以设置。
wget 常用示例让我们花点时间来了解一下wget命令!wget是一个非常强大且广泛使用的命令行工具,它主要用于从Web服务器上下载文件。
它支持HTTP、HTTPS和FTP等协议,能够在终端中执行,并带有许多可用选项和参数来满足各种需求。
在本文中,我们将一步一步地回答关于wget 的常用示例。
首先,让我们来了解一下wget的基本用法。
在终端中,只需键入"wget"后接URL,即可下载文件。
让我们尝试下载一个文件,并说明需要注意的事项。
示例1:下载一个文件wget在这个例子中,我们使用wget下载了一个名为"file.txt"的文件。
请确保替换URL为实际的文件URL。
接下来,让我们看看wget的一些常用选项和参数。
示例2:限速下载wget limit-rate=200k通过使用"limit-rate"选项,我们限制了下载速度为每秒200KB。
这对于避免网络拥塞或与其他应用程序共享带宽时非常有用。
示例3:下载到指定目录wget -P /path/to/directory通过使用"-P"选项,我们可以将下载的文件保存到指定的目录中。
请确保替换"/path/to/directory"为实际的目录路径。
示例4:重命名下载的文件wget -O newfile.txt使用"-O"选项,我们可以将下载的文件重命名为"newfile.txt"。
这对于避免文件名冲突或更改下载文件的名称非常有用。
示例5:断点续传wget -c通过使用"-c"选项,如果下载意外中断,我们可以恢复未完成的下载。
这对于大型文件或网络连接不稳定的情况非常有用。
示例6:后台下载wget -b使用"-b"选项,我们可以将下载作业放入后台运行。
这意味着您可以继续使用终端窗口而不会被下载进程干扰。
wget是一个命令行实用工具,用于从Web服务器下载文件。
它支持HTTP和FTP协议,以及代理服务器和断点续传功能。
以下是一些wget的基本用法:
1. 下载整个网站:wget [URL]
2. 递归下载:wget -r [URL]
3. 保持链接结构:wget -P [directory] [URL]
4. 递归下载并保持链接结构:wget -r -P [directory] [URL]
5. 下载并保存为文件:wget -O [filename] [URL]
6. 递归下载并保存为文件:wget -r -O [filename] [URL]
7. 设置最大深度:wget -l [level] [URL]
8. 使用代理服务器:wget --proxy=on --proxy-user=[username] --proxy-password=[password] [URL]
9. 添加断点续传功能:wget --continue [URL]
10. 强制建立服务器上一模一样的目录结构:wget -x [URL]
11. 强制下载,不检查文件名:wget -q [URL]
12. 将所有内容下载到当前目录:wget -nd [URL]
13. 批量下载:将一个包含多个URL的文件(例如download.txt)传递给wget,以便同时下载所有链接的文件。
例如:wget -i download.txt。
请注意,这只是一些基本的用法,wget还有许多其他选项和功能,可以根据您的需求进行调整和配置。
wget的全部用法
wget是一个在Linux中常用的命令行下载工具,它可以在命令行中下载网络上的文件。
以下是一些wget的常见用法:
下载整个网站:
css
wget -r URL
这个命令会递归下载服务器上所有的目录和文件,实质就是下载整个网站。
这个命令一定要小心使用,因为在下载的时候,被下载网站指向的所有地址同样会被下载,因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来。
基于这个原因,这个参数不常用。
可以用-lnumber参数来指定下载的层次。
例如只下载两层,那么使用-l2。
2. 制作镜像站点:
css
wget -m URL
这个命令会自动判断合适的参数来制作镜像站点。
此时,wget会登录到服务器上,读入robots.txt并按robots.txt的规定来执行。
3. 批量下载:
可以把需要下载的链接放到一个文本中,然后加上-i参数下载文本中配置的所有链接对象:
vbnet
wget -i download-file-list.txt
重定向下载日志到指定文件:
css
wget -o download.log URL
这个命令会把下载日志重定向到指定的文件。
5. 当文件超过某个大小时,退出下载:
css
wget -Q5m -i FILE-WHICH-HAS-URLS
这个命令只适用于批量下载场景,如果只是下载一个文件,此设置不生效。
6. 下载时设置忽略某个文件类型:
css
wget --reject=gif URL
这个命令在下载时会忽略所有gif类型的文件。
linux下载命令wgetLinux wget是⼀个下载⽂件的⼯具,它⽤在命令⾏下。
对于Linux⽤户是必不可少的⼯具,尤其对于⽹络管理员,经常要下载⼀些软件或从远程恢复备份到本地服务器。
如果我们使⽤虚拟主机,处理这样的事务我们只能先从远程服务器下载到我们电脑磁盘,然后再⽤上传到服务器。
这样既浪费时间⼜浪费精⼒,那不没办法的事。
⽽到了Linux VPS,它则可以直接下载到服务器⽽不⽤经过上传这⼀步。
wget⼯具体积⼩但功能完善,它⽀持断点下载功能,同时⽀持FTP和HTTP下载⽅式,⽀持代理服务器和设置起来⽅便简单。
下⾯我们以实例的形式说明怎么使⽤wget。
1、使⽤wget下载单个⽂件以下的例⼦是从⽹络下载⼀个⽂件并保存在当前⽬录在下载的过程中会显⽰进度条,包含(下载完成百分⽐,已经下载的字节,当前下载速度,剩余下载时间)。
2、使⽤wget -O下载并以不同的⽂件名保存wget默认会以最后⼀个符合”/”的后⾯的字符来命令,对于动态链接的下载通常⽂件名会不正确。
错误:下⾯的例⼦会下载⼀个⽂件并以名称download.php?id=1080保存即使下载的⽂件是zip格式,它仍然以download.php?id=1080命令。
正确:为了解决这个问题,我们可以使⽤参数-O来指定⼀个⽂件名:3、使⽤wget –limit -rate限速下载当你执⾏wget的时候,它默认会占⽤全部可能的宽带下载。
但是当你准备下载⼀个⼤⽂件,⽽你还需要下载其它⽂件时就有必要限速了。
4、使⽤wget -c断点续传使⽤wget -c重新启动下载中断的⽂件:对于我们下载⼤⽂件时突然由于⽹络等原因中断⾮常有帮助,我们可以继续接着下载⽽不是重新下载⼀个⽂件。
需要继续中断的下载时可以使⽤-c参数。
5、使⽤wget -b后台下载对于下载⾮常⼤的⽂件的时候,我们可以使⽤参数-b进⾏后台下载。
Continuing in background, pid 1840.Output will be written to `wget-log’.你可以使⽤以下命令来察看下载进度tail -f wget-log6、伪装代理名称下载有些⽹站能通过根据判断代理名称不是浏览器⽽拒绝你的下载请求。
wget 常用示例-回复关于wget常用示例的文章。
在网络世界中,一直以来wget(World Wide Web Get)都是备受推崇的工具之一。
它是一种非常方便的命令行工具,主要用于在网络上下载文件。
无论是下载一个单独的文件还是整个网站,wget都能胜任。
下面将一步一步回答关于wget常用示例的问题,希望能够对大家有所帮助。
1. 什么是wget?wget是一个开源的网络工具,用于从远程服务器上下载文件。
它支持HTTP、HTTPS、FTP和FTP(通过HTTP代理)等多种协议,可以在命令行或脚本中使用。
2. 如何使用wget?首先,我们需要在我们的系统上安装wget。
使用各个操作系统的包管理器进行安装非常简单。
例如,在Ubuntu系统上,可以使用以下命令进行安装:shellsudo apt-get install wget安装完成后,我们就可以开始使用wget了。
3. 如何下载一个文件?使用wget下载一个文件非常简单,只需在命令行中输入以下命令:shellwget [URL]其中,[URL]是你想要下载文件的网址。
例如,如果想下载一个名为example.txt的文件,可以使用以下命令:shellwgetwget将会从给定的URL下载文件,并保存到当前工作目录下。
4. 如何将下载的文件保存到指定目录?有时候,我们希望将下载的文件保存到指定的目录而不是当前工作目录。
可以通过使用`-P`选项来实现。
shellwget -P [目录路径] [URL]其中,[目录路径]是你希望保存文件的目录路径,[URL]是你想要下载的文件的网址。
例如,如果希望将文件保存到`/home/user/downloads`目录下,可以使用以下命令:shellwget -P /home/user/downloads5. 如何下载多个文件?wget不仅可以下载单个文件,还可以下载多个文件。
例如,要下载一个名为file1.txt和file2.txt的文件,可以使用以下命令:shellwget [URL1] [URL2]其中,[URL1]和[URL2]是你想要下载的两个文件的网址。
wget命令详解导读: wget是Linux中的⼀个下载⽂件的⼯具,wget是在Linux下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括Windows在内的各个平台上。
它⽤在命令⾏下。
对于Linux⽤户是必不可少的⼯具,尤其对于⽹络管理员,经常要下载⼀些软件或从远程服务器恢复备份到本地服务器。
如果我们使⽤虚拟主机,处理这样的事务我们只能先从远程服务器下载到我们电脑磁盘,然后再⽤ftp⼯具上传到服务器。
这样既浪费时间⼜浪费精⼒,那不没办法的事。
⽽到了Linux VPS,它则可以直接下载到服务器⽽不⽤经过上传这⼀步。
wget⼯具体积⼩但功能完善,它⽀持断点下载功能,同时⽀持FTP和HTTP下载⽅式,⽀持代理服务器和设置起来⽅便简单。
下⾯我们以实例的形式说明怎么使⽤wget。
⾸先安装wget1 [root@network test]# yum install -y wget查看帮助⼿册1 [root@network test]# wget --help1 GNU Wget 1.14,⾮交互式的⽹络⽂件下载⼯具。
2 ⽤法: wget [选项]... [URL]...34 长选项所必须的参数在使⽤短选项时也是必须的。
56 启动:7 -V, --version 显⽰ Wget 的版本信息并退出。
8 -h, --help 打印此帮助。
9 -b, --background 启动后转⼊后台。
10 -e, --execute=COMMAND 运⾏⼀个“.wgetrc”风格的命令。
1112 ⽇志和输⼊⽂件:13 -o, --output-file=FILE 将⽇志信息写⼊ FILE。
14 -a, --append-output=FILE 将信息添加⾄ FILE。
15 -d, --debug 打印⼤量调试信息。
16 -q, --quiet 安静模式 (⽆信息输出)。
17 -v, --verbose 详尽的输出 (此为默认值)。
wget命令详解wget命令简单介绍wget命令⽤来从指定的URL下载⽂件。
wget⾮常稳定,它在带宽很窄的情况下和不稳定⽹络中有很强的适应性,如果是由于⽹络的原因下载失败,wget会不断的尝试,直到整个⽂件下载完毕。
如果是服务器打断下载过程,它会再次联到服务器上从停⽌的地⽅继续下载。
这对从那些限定了链接时间的服务器上下载⼤⽂件⾮常有⽤。
语法wget [选项] [参数]选项-a<⽇志⽂件>:在指定的⽇志⽂件中记录资料的执⾏过程;-A<后缀名>:指定要下载⽂件的后缀名,多个后缀名之间使⽤逗号进⾏分隔;-b:进⾏后台的⽅式运⾏wget;-B<连接地址>:设置参考的连接地址的基地地址;-c:继续执⾏上次终端的任务;-C<标志>:设置服务器数据块功能标志on为激活,off为关闭,默认值为on;-d:调试模式运⾏指令;-D<域名列表>:设置顺着的域名列表,域名之间⽤“,”分隔;-e<指令>:作为⽂件“.wgetrc”中的⼀部分执⾏指定的指令;-h:显⽰指令帮助信息;-i<⽂件>:从指定⽂件获取要下载的URL地址;-l<⽬录列表>:设置顺着的⽬录列表,多个⽬录⽤“,”分隔;-L:仅顺着关联的连接;-r:递归下载⽅式;-nc:⽂件存在时,下载⽂件不覆盖原有⽂件;-nv:下载时只显⽰更新和出错信息,不显⽰指令的详细执⾏过程;-q:不显⽰指令执⾏过程;-nh:不查询主机名称;-v:显⽰详细执⾏过程;-V:显⽰版本信息;--passive-ftp:使⽤被动模式PASV连接FTP服务器;--follow-ftp:从HTML⽂件中下载FTP连接⽂件。
参数: URL:下载指定的URL地址wget应⽤实例使⽤wget下载单个⽂件从⽹络下载⼀个⽂件并保存在当前⽬录,在下载的过程中会显⽰进度条,包含(下载完成百分⽐,已经下载的字节,当前下载速度,剩余下载时间)下载⽂件并且重命名wget默认会以最后⼀个符合/的后⾯的字符来命令,对于动态链接的下载通常⽂件名会不正确。
你应该了解的所有wget命令翻译⾃如何下载整个⽹站⽤来离线浏览?怎样将⼀个⽹站上的所有MP3⽂件保存到本地的⼀个⽬录中?怎么才能将需要登陆的⽹页后⾯的⽂件下载下来?怎样构建⼀个迷你版的Google?Wget是⼀个⾃由的⼯具,可在包括Mac,Window和Linux在内的多个平台上使⽤,它可帮助你实现所有上述任务,⽽且还有更多的功能。
与⼤多数下载管理器不同的是,wget可跟着⽹页上的HTTP链接,递归地下载相关的⽂件。
有个⼠兵就⽤过这个⼯具来从美军内⽹上下载数千个机密⽂件,并发布到了维基解密上。
wget下载得到整个⽹站的镜像⽤wget下载得到整个⽹站的镜像使⽤Wget扒⾏⽹站—-20个实⽤例⼦Wget是⼀个极为强⼤的⼯具,但和⼤部分其它命令⾏程序⼀样,它所⽀持的⼤量选项会吓跑新的⽤户。
因⽽,这⾥我们会列出⼀些wget命令,以帮助你完成⼀些普通的任务,包括下载单个⽂件和对整个⽹站做备份,等。
你如果有时间通读wget⼿册,⾃然会⼤受裨益。
但是对于忙碌的⼈们来说,这⾥给出的却是随时可执⾏的命令。
1) 从⽹上下载单个⽂件wget /file.iso2) 下载⼀个⽂件,但以不同的名字存为本地⽂件wget --output-document=filename.html 3) 下载⼀个⽂件,存到指定的⽬录wget --directory-prefix=folder/subfolder 4) 恢复之前中断的⼀个wget下载wget --continue /big.file.isowget -c /big.file.iso5) 下载⼀个⽂件,但只在服务器上的版本⽐本地版本新时才会真正执⾏wget --continue --timestamping /latest.zip6) ⽤wget下载多个⽹址,这些⽹址存于⼀个⽂本⽂件中,⼀⾏⼀个⽹址wget --input list-of-file-urls.txt7) 从服务器下载⼀些以连续序号为⽂件名的⽂件wget /images/{1..20}.jpgwget /images/pre-{1..20}-post.jpg8) 下载⼀个⽹页,包括它所有的内容,⽐如样式表和包含的图⽚,它们是确保⽹页离线显⽰所必需的wget -page-requisites --span-hosts --convert-links --adjust-extension /dir/filewget -p -H -k -E /dir/file⽤Wget对⽹站进⾏镜像备份9) 下载整个⽹站,包括它所有链接的页⾯和⽂件wget --execute robots=off --recursive --no-parent --continue --no-clobber /wget -e robots=off -r -np -c -nc /10) 从⽹站上⼀个⼦⽬录中下载所有MP3⽂件wget --level=1 --recursive --no-parent --accept mp3,MP3 /mp3/wget -l 1 -r -np -A mp3,MP3 /mp3/11) 将⼀个⽹站上的所有图⽚下载到同⼀个⽬录中wget --directory-prefix=files/pictures --no-directories --recursive --no-clobber --accept jpg,gif,png,jpeg /images/wget -P files/pictures -nd -r -nc -A jpg,gif,png,jpeg /images/12) 从⼀个⽹站上下载PDF⽂件,采⽤递归的⽅式,但不跳出指定的⽹域wget --mirror --domains=,, --accept=pdf /wget -m -D ,, -A pdf /13) 从⼀个⽹站上下载所有⽂件,但是排除某些⽬录wget --recursive --no-clobber --no-parent --exclude-directories /forums,/support wget -r -nc -np -X /forums,/support ⽤Wget下载受限内容Wget可⽤于下载⽹站上登陆页⾯之后的内容,或避开HTTP参照位址(referer)和User Agent字符串对抓屏的限制。
wget命令详解1、使⽤wget下载单个⽂件以下的例⼦是从⽹络下载⼀个⽂件并保存在当前⽬录wget /wordpress-3.1-zh_CN.zip在下载的过程中会显⽰进度条,包含(下载完成百分⽐,已经下载的字节,当前下载速度,剩余下载时间)。
2、使⽤wget -O下载并以不同的⽂件名保存,wget默认会以最后⼀个符合”/”的后⾯的字符来命令,对于动态链接的下载通常⽂件名会不正确。
错误:下⾯的例⼦会下载⼀个⽂件并以名称download.php?id=1080保存wget http://www.centos.bz/download?id=1即使下载的⽂件是zip格式,它仍然以download.php?id=1080命令。
正确:为了解决这个问题,我们可以使⽤参数-O来指定⼀个⽂件名:wget -O wordpress.zip http://www.centos.bz/download.php?id=10803、使⽤wget –limit -rate限速下载当你执⾏wget的时候,它默认会占⽤全部可能的宽带下载。
但是当你准备下载⼀个⼤⽂件,⽽你还需要下载其它⽂件时就有必要限速了。
wget –limit-rate=300k /wordpress-3.1-zh_CN.zip4、使⽤wget -c断点续传使⽤wget -c重新启动下载中断的⽂件:wget -c /wordpress-3.1-zh_CN.zip对于我们下载⼤⽂件时突然由于⽹络等原因中断⾮常有帮助,我们可以继续接着下载⽽不是重新下载⼀个⽂件。
需要继续中断的下载时可以使⽤-c参数。
5、使⽤wget -b后台下载对于下载⾮常⼤的⽂件的时候,我们可以使⽤参数-b进⾏后台下载。
wget -b /wordpress-3.1-zh_CN.zipContinuing in background, pid 1840.Output will be written to `wget-log’.你可以使⽤以下命令来察看下载进度tail -f wget-log6、伪装代理名称下载有些⽹站能通过根据判断代理名称不是浏览器⽽拒绝你的下载请求。
wgetwget是一个从网络上自动下载文件的自由工具。
它支持HTTP,HTTPS和FTP协议,可以使用HTTP代理.所谓的自动下载是指,wget可以在用户退出系统的之后在后台执行。
这意味这你可以登录系统,启动一个wget下载任务,然后退出系统,wget将在后台执行直到任务完成,相对于其它大部分浏览器在下载大量数据时需要用户一直的参与,这省去了极大的麻烦。
wget可以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本,完全重建原始站点的目录结构。
这又常被称作"递归下载"。
在递归下载的时候,wget遵循Robot Exclusion标准(/robots.txt). wget可以在下载的同时,将链接转换成指向本地文件,以方便离线浏览。
wget非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。
如果是服务器打断下载过程,它会再次联到服务器上从停止的地方继续下载。
这对从那些限定了链接时间的服务器上下载大文件非常有用。
wget的常见用法wget的使用格式Usage: wget [OPTION]... [URL]...用wget做站点镜像:wget -r -p -np -k /~usr_name/# 或者wget -m /~usr_name/在不稳定的网络上下载一个部分下载的文件,以及在空闲时段下载wget -t 0 -w 31 -c /BBC.avi -o down.log &# 或者从filelist读入要下载的文件列表wget -t 0 -w 31 -c -B ftp:///linuxsoft -i filelist.txt -o down.log &上面的代码还可以用来在网络比较空闲的时段进行下载。
我的用法是:在mozilla中将不方便当时下载的URL链接拷贝到内存中然后粘贴到文件filelist.txt中,在晚上要出去系统前执行上面代码的第二条。
使用代理下载wget -Y on -p -k https:///projects/wvware/代理可以在环境变量或wgetrc文件中设定# 在环境变量中设定代理export PROXY=http://211.90.168.94:8080/# 在~/.wgetrc中设定代理http_proxy = :18023/ftp_proxy = :18023/wget各种选项分类列表启动-V, --version 显示wget的版本后退出-h, --help 打印语法帮助-b, --background 启动后转入后台执行,记录文件写在当前目录下"wget-log"文件中-e, --execute=COMMAND 执行`.wgetrc''格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc记录和输入文件-o, --output-file=FILE 把记录写到FILE文件中-a, --append-output=FILE 把记录追加到FILE文件中-d, --debug 打印调试输出-q, --quiet 安静模式(没有输出)-v, --verbose 冗长模式(这是缺省设置)-nv, --non-verbose 关掉冗长模式,但不是安静模式-i, --input-file=FILE 下载在FILE文件中出现的URLs-F, --force-html 把输入文件当作HTML格式文件对待-B, --base=URL 将URL作为在-F -i参数指定的文件中出现的相对链接的前缀--sslcertfile=FILE 可选客户端证书--sslcertkey=KEYFILE 可选客户端证书的KEYFILE--egd-file=FILE 指定EGD socket的文件名下载--bind-address=ADDRESS 指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)-t, --tries=NUMBER 设定最大尝试链接次数(0 表示无限制).-O --output-document=FILE 把文档写到FILE文件中-nc, --no-clobber 不要覆盖存在的文件或使用.#前缀-c, --continue 接着下载没下载完的文件--progress=TYPE 设定进程条标记-N, --timestamping 不要重新下载文件除非比本地文件新-S, --server-response 打印服务器的回应--spider 不下载任何东西-T, --timeout=SECONDS 设定响应超时的秒数,指定多长时间远程服务器没有响应就中断连接-w, --wait=SECONDS 两次尝试之间间隔SECONDS秒--waitretry=SECONDS 在重新链接之间等待1...SECONDS秒--random-wait 在下载之间等待0...2*WAIT秒-Y, --proxy=on/off 打开或关闭代理-Q, --quota=NUMBER 设置下载的容量限制(限制下载文件的总大小最多不能超过多少,比如"-Q2k"表示不能超过2K字节,"-Q3m"表示最多不能超过3M字节,如果数字后面什么都不加,就表示是以字节为单位,比如"-Q200"表示最多不能超过200字节)--limit-rate=RATE 限定下载输率目录-nd --no-directories 不创建目录-x, --force-directories 强制创建目录-nH, --no-host-directories 不创建主机目录-P, --directory-prefix=PREFIX 将文件保存到目录 PREFIX/...--cut-dirs=NUMBER 忽略 NUMBER层远程目录HTTP 选项--http-user=USER 设定HTTP用户名为 USER.--http-passwd=PASS 设定http密码为 PASS.-C, --cache=on/off 允许/不允许服务器端的数据缓存 (一般情况下允许).-E, --html-extension 将所有text/html文档以.html扩展名保存--ignore-length 忽略 `Content-Length''头域--header=STRING 在headers中插入字符串 STRING--proxy-user=USER 设定代理的用户名为 USER--proxy-passwd=PASS 设定代理的密码为 PASS--referer=URL 在HTTP请求中包含 `Referer: URL''头-s, --save-headers 保存HTTP头到文件-U, --user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION.--no-http-keep-alive 关闭 HTTP活动链接 (永远链接).--cookies=off 不使用 cookies.--load-cookies=FILE 在开始会话前从文件 FILE中加载cookie--save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中FTP 选项-nr, --dont-remove-listing 不移走 `.listing''文件-g, --glob=on/off 打开或关闭文件名的 globbing机制--passive-ftp 使用被动传输模式 (缺省值).--active-ftp 使用主动传输模式--retr-symlinks 在递归的时候,将链接指向文件(而不是目录)递归下载-r, --recursive 递归下载--慎用!-l, --level=NUMBER 最大递归深度 (inf 或 0 代表无穷).--delete-after 在现在完毕后局部删除文件-k, --convert-links 转换非相对链接为相对链接-K, --backup-converted 在转换文件X之前,将之备份为 X.orig-m, --mirror 等价于 -r -N -l inf -nr.-p, --page-requisites 下载显示HTML文件的所有图片递归下载中的包含和不包含(accept/reject)-A, --accept=LIST 分号分隔的被接受扩展名的列表-R, --reject=LIST 分号分隔的不被接受的扩展名的列表-D, --domains=LIST 分号分隔的被接受域的列表--exclude-domains=LIST 分号分隔的不被接受的域的列表--follow-ftp 跟踪HTML文档中的FTP链接--follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表-G, --ignore-tags=LIST 分号分隔的被忽略的HTML标签的列表-H, --span-hosts 当递归时转到外部主机-L, --relative 仅仅跟踪相对链接-I, --include-directories=LIST 允许目录的列表-X, --exclude-directories=LIST 不被包含目录的列表-np, --no-parent 不要追溯到父目录(只下载目标站点指定目录及其子目录的内容。
这也是一个非常有用的选项,我们假设某个人的个人主页里面有。