wget經常使用參數

簡介

Linux系統中的wget是一個下載文件的工具,它用在命令行下。對於Linux用戶是必不可少的工具,咱們常常要下載一些軟件或從遠程服務器恢復備份到本地服務器。wget支持HTTP,HTTPS和FTP協議,可使用HTTP代理。所謂的自動下載是指,wget能夠在用戶退出系統的以後在後臺執行。這意味這你能夠登陸系統,啓動一個wget下載任務,而後退出系統,wget將在後臺執行直到任務完成,相對於其它大部分瀏覽器在下載大量數據時須要用戶一直的參與,這省去了極大的麻煩。php

wget 能夠跟蹤HTML頁面上的連接依次下載來建立遠程服務器的本地版本,徹底重建原始站點的目錄結構。這又常被稱做」遞歸下載」。在遞歸下載的時候,wget 遵循Robot Exclusion標準(/robots.txt). wget能夠在下載的同時,將連接轉換成指向本地文件,以方便離線瀏覽。html

wget 很是穩定,它在帶寬很窄的狀況下和不穩定網絡中有很強的適應性.若是是因爲網絡的緣由下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。若是是服務器打斷下載過程,它會再次聯到服務器上從中止的地方繼續下載。這對從那些限定了連接時間的服務器上下載大文件很是有用。linux

 

wget特性

  • 支持斷點下傳功能【important】
  • 同時支持FTP和HTTP下載方式
  • 支持代理服務器
  • 設置方便簡單
  • 程序小,更是開源

基本語法瀏覽器

wget [參數列表] URL。緩存

啓動參數:服務器

  • -V, –version 顯示wget的版本後退出cookie

  • -h, –help 打印語法幫助網絡

  • -b, –background 啓動後轉入後臺執行app

  • -e, –execute=COMMAND 執行`.wgetrc’格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrcdom

記錄和輸入文件參數:

  • -o, –output-file=FILE 把記錄寫到FILE文件中

  • -a, –append-output=FILE 把記錄追加到FILE文件中

  • -d, –debug 打印調試輸出

  • -q, –quiet 安靜模式(沒有輸出)

  • -v, –verbose 冗長模式(這是缺省設置)

  • -nv, –non-verbose 關掉冗長模式,但不是安靜模式

  • -i, –input-file=FILE 下載在FILE文件中出現的URLs

  • -F, –force-html 把輸入文件看成HTML格式文件對待

  • -B, –base=URL 將URL做爲在-F -i參數指定的文件中出現的相對連接的前綴

  • –sslcertfile=FILE 可選客戶端證書

  • –sslcertkey=KEYFILE 可選客戶端證書的KEYFILE

  • –egd-file=FILE 指定EGD socket的文件名

下載參數:

  • –bind-address=ADDRESS 指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)

  • -t, –tries=NUMBER 設定最大嘗試連接次數(0 表示無限制).

  • -O –output-document=FILE 把文檔寫到FILE文件中

  • -nc, –no-clobber 不要覆蓋存在的文件或使用.#前綴

  • -c, –continue 接着下載沒下載完的文件

  • –progress=TYPE 設定進程條標記

  • -N, –timestamping 不要從新下載文件除非比本地文件新

  • -S, –server-response 打印服務器的迴應

  • –spider 不下載任何東西

  • -T, –timeout=SECONDS 設定響應超時的秒數

  • -w, –wait=SECONDS 兩次嘗試之間間隔SECONDS秒

  • –waitretry=SECONDS 在從新連接之間等待1…SECONDS秒

  • –random-wait 在下載之間等待0…2*WAIT秒

  • -Y, –proxy=on/off 打開或關閉代理

  • -Q, –quota=NUMBER 設置下載的容量限制

  • –limit-rate=RATE 限定下載輸率

目錄參數:

  • -nd –no-directories 不建立目錄

  • -x, –force-directories 強制建立目錄

  • -nH, –no-host-directories 不建立主機目錄

  • -P, –directory-prefix=PREFIX 將文件保存到目錄 PREFIX/…

  • –cut-dirs=NUMBER 忽略 NUMBER層遠程目錄

HTTP 選項參數:

  • –http-user=USER 設定HTTP用戶名爲 USER.

  • –http-passwd=PASS 設定http密碼爲 PASS

  • -C, –cache=on/off 容許/不容許服務器端的數據緩存 (通常狀況下容許)

  • -E, –html-extension 將全部text/html文檔以.html擴展名保存

  • –ignore-length 忽略 `Content-Length’頭域

  • –header=STRING 在headers中插入字符串 STRING

  • –proxy-user=USER 設定代理的用戶名爲 USER

  • –proxy-passwd=PASS 設定代理的密碼爲 PASS

  • –referer=URL 在HTTP請求中包含 `Referer: URL’頭

  • -s, –save-headers 保存HTTP頭到文件

  • -U, –user-agent=AGENT 設定代理的名稱爲 AGENT而不是 Wget/VERSION

  • –no-http-keep-alive 關閉 HTTP活動連接 (永遠連接)

  • –cookies=off 不使用 cookies

  • –load-cookies=FILE 在開始會話前從文件 FILE中加載cookie

  • –save-cookies=FILE 在會話結束後將 cookies保存到 FILE文件中

FTP 選項參數:

  • -nr, –dont-remove-listing 不移走 `.listing’文件

  • -g, –glob=on/off 打開或關閉文件名的 globbing機制

  • –passive-ftp 使用被動傳輸模式 (缺省值).

  • –active-ftp 使用主動傳輸模式

  • –retr-symlinks 在遞歸的時候,將連接指向文件(而不是目錄)

遞歸下載參數:

  • -r, –recursive 遞歸下載--慎用!

  • -l, –level=NUMBER 最大遞歸深度 (inf 或 0 表明無窮)

  • –delete-after 在如今完畢後局部刪除文件

  • -k, –convert-links 轉換非相對連接爲相對連接

  • -K, –backup-converted 在轉換文件X以前,將之備份爲 X.orig

  • -m, –mirror 等價於 -r -N -l inf -nr

  • -p, –page-requisites 下載顯示HTML文件的全部圖片

遞歸下載中的包含和不包含(accept/reject):

  • -A, –accept=LIST 分號分隔的被接受擴展名的列表

  • -R, –reject=LIST 分號分隔的不被接受的擴展名的列表

  • -D, –domains=LIST 分號分隔的被接受域的列表

  • –exclude-domains=LIST 分號分隔的不被接受的域的列表

  • –follow-ftp 跟蹤HTML文檔中的FTP連接

  • –follow-tags=LIST 分號分隔的被跟蹤的HTML標籤的列表

  • -G, –ignore-tags=LIST 分號分隔的被忽略的HTML標籤的列表

  • -H, –span-hosts 當遞歸時轉到外部主機

  • -L, –relative 僅僅跟蹤相對連接

  • -I, –include-directories=LIST 容許目錄的列表

  • -X, –exclude-directories=LIST 不被包含目錄的列表

  • -np, –no-parent 不要追溯到父目錄

  • wget -S –spider url 不下載只顯示過程

 

經常使用參數

一、簡單wget

$wget http://www.example.com

二、遞歸下載 - 【下載整個網站資源】

$wget -r  http://www.example.com/

三、斷點續傳

$wget -c http://www.example.com/eos.iso

四、批量下載
若是有多個文件須要下載,那麼能夠生成一個文件,把每一個文件的URL寫一行,例如生成文件download

$wget -i download

五、選擇性的下載
–accept=LIST 能夠接受的文件類型,–reject=LIST拒絕接受的文件類型。

#忽略gif文件。
wget -m –reject=gif -r http://www.example.com/

六、密碼和認證
wget只能處理利用用戶名/密碼方式限制訪問的網站,能夠利用兩個參數:

–http-user=USER設置HTTP用戶
–http-passwd=PASS設置HTTP密碼
對於須要證書作認證的網站,就只能利用其餘下載工具了,例如curl。

七、利用代理服務器進行下載
若是用戶的網絡須要通過代理服務器,那麼可讓wget經過代理服務器進行文件的下載。此時須要在當前用戶的目錄下建立一個.wgetrc文件。文件中能夠設置代理服務器:

http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
#分別表示http的代理服務器和ftp的代理服務器。若是代理服務器須要密碼則使用:
–proxy-user=USER設置代理用戶
–proxy-passwd=PASS設置代理密碼

使用參數–proxy=on/off 使用或者關閉代理。

 

                                    使用實例:

實例1:使用wget下載單個文件

命令:

wget http://www.linuxidc.com/linuxidc.zip

說明:

如下的例子是從網絡下載一個文件並保存在當前目錄,在下載的過程當中會顯示進度條,包含(下載完成百分比,已經下載的字節,當前下載速度,剩餘下載時間)。

 

實例2:使用wget -O下載並以不一樣的文件名保存

命令:

wget -O wordpress.zip http://www.linuxidc.com/download.aspx?id=1080

說明:

wget默認會以最後一個符合」/」的後面的字符來命令,對於動態連接的下載一般文件名會不正確。

錯誤:下面的例子會下載一個文件並以名稱download.aspx?id=1080保存

wget http://www.linuxidc.com/download?id=1

即便下載的文件是zip格式,它仍然以download.php?id=1080命令。

正確:爲了解決這個問題,咱們可使用參數-O來指定一個文件名:

wget -O wordpress.zip http://www.linuxidc.com/download.aspx?id=1080

實例3:使用wget –limit -rate限速下載

命令:

wget --limit-rate=300k http://www.linuxidc.com/linuxidc.zip

說明:

當你執行wget的時候,它默認會佔用所有可能的寬帶下載。可是當你準備下載一個大文件,而你還須要下載其它文件時就有必要限速了。

實例4:使用wget -c斷點續傳

命令:

wget -c http://www.linuxidc.com/linuxidc.zip

說明:

使用wget -c從新啓動下載中斷的文件,對於咱們下載大文件時忽然因爲網絡等緣由中斷很是有幫助,咱們能夠繼續接着下載而不是從新下載一個文件。須要繼續中斷的下載時可使用-c參數。

實例5:使用wget -b後臺下載

命令:

wget -b http://www.linuxidc.com/linuxidc.zip

說明:

對於下載很是大的文件的時候,咱們可使用參數-b進行後臺下載。

wget -b http://www.linuxidc.com/linuxidc.zip

Continuing in background, pid 1840.

Output will be written to `wget-log'.

你可使用如下命令來察看下載進度:

tail -f wget-log

實例6:假裝代理名稱下載

命令:

wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" http://www.linuxidc.com/linuxidc.zip

說明:

有些網站能經過根據判斷代理名稱不是瀏覽器而拒絕你的下載請求。不過你能夠經過–user-agent參數假裝。

實例7:使用wget –spider測試下載連接

命令:

wget --spider URL

說明:

當你打算進行定時下載,你應該在預約時間測試下載連接是否有效。咱們能夠增長–spider參數進行檢查。

wget --spider URL

若是下載連接正確,將會顯示

wget --spider URL

Spider mode enabled. Check if remote file exists.

HTTP request sent, awaiting response... 200 OK

Length: unspecified [text/html]

Remote file exists and could contain further links,

but recursion is disabled -- not retrieving.

這保證了下載能在預約的時間進行,但當你給錯了一個連接,將會顯示以下錯誤

wget --spider url

Spider mode enabled. Check if remote file exists.

HTTP request sent, awaiting response... 404 Not Found

Remote file does not exist -- broken link!!!

你能夠在如下幾種狀況下使用spider參數:

定時下載以前進行檢查

間隔檢測網站是否可用

檢查網站頁面的死連接

實例8:使用wget –tries增長重試次數

命令:

wget --tries=40 URL

說明:

若是網絡有問題或下載一個大文件也有可能失敗。wget默認重試20次鏈接下載文件。若是須要,你可使用–tries增長重試次數。

實例9:使用wget -i下載多個文件

命令:

wget -i filelist.txt

說明:

首先,保存一份下載連接文件

cat > filelist.txt

url1

url2

url3

url4

接着使用這個文件和參數-i下載

實例10:使用wget –mirror鏡像網站

命令:

wget --mirror -p --convert-links -P ./LOCAL URL

說明:

下載整個網站到本地。

–miror:開戶鏡像下載

-p:下載全部爲了html頁面顯示正常的文件

–convert-links:下載後,轉換成本地的連接

-P ./LOCAL:保存全部文件和目錄到本地指定目錄

實例11:使用wget –reject過濾指定格式下載

命令:
  wget --reject=gif ur

說明:

下載一個網站,但你不但願下載圖片,可使用如下命令。

實例12:使用wget -o把下載信息存入日誌文件

命令:

wget -o download.log URL

說明:

不但願下載信息直接顯示在終端而是在一個日誌文件,可使用

實例13:使用wget -Q限制總下載文件大小

命令:

wget -Q5m -i filelist.txt

說明:

當你想要下載的文件超過5M而退出下載,你可使用。注意:這個參數對單個文件下載不起做用,只能遞歸下載時纔有效。

實例14:使用wget -r -A下載指定格式文件

命令:

wget -r -A.pdf url

說明:

能夠在如下狀況使用該功能:

下載一個網站的全部圖片

下載一個網站的全部視頻

下載一個網站的全部PDF文件

實例15:使用wget FTP下載

命令:

wget ftp-url

wget --ftp-user=USERNAME --ftp-password=PASSWORD url

說明:

可使用wget來完成ftp連接的下載。

使用wget匿名ftp下載:

wget ftp-url

使用wget用戶名和密碼認證的ftp下載

wget --ftp-user=USERNAME --ftp-password=PASSWORD url

備註:編譯安裝

使用以下命令編譯安裝:

# tar zxvf wget-1.9.1.tar.gz
# cd wget-1.9.1
# ./configure
# make
# make install

做者:AlicFeng 連接:https://www.jianshu.com/p/2556d7f451e7 來源:簡書  

相關文章
相關標籤/搜索