wget命令

wget命令用來從指定的URL下載文件。wget很是穩定,它在帶寬很窄的狀況下和不穩定網絡中有很強的適應性,若是是因爲網絡的緣由下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。若是是服務器打斷下載過程,它會再次聯到服務器上從中止的地方繼續下載。這對從那些限定了連接時間的服務器上下載大文件很是有用。php

語法

wget  (選項)  (參數)

選項html

-a<日誌文件>:在指定的日誌文件中記錄資料的執行過程;
-A<後綴名>:指定要下載文件的後綴名,多個後綴名之間使用逗號進行分隔;
-b:進行後臺的方式運行wget;
-B<鏈接地址>:設置參考的鏈接地址的基地地址;
-c:繼續執行上次終端的任務;
-C<標誌>:設置服務器數據塊功能標誌on爲激活,off爲關閉,默認值爲on;
-d:調試模式運行指令;
-D<域名列表>:設置順着的域名列表,域名之間用「,」分隔;
-e<指令>:做爲文件「.wgetrc」中的一部分執行指定的指令;
-h:顯示指令幫助信息;
-i<文件>:從指定文件獲取要下載的URL地址;
-l<目錄列表>:設置順着的目錄列表,多個目錄用「,」分隔;
-L:僅順着關聯的鏈接;
-r:遞歸下載方式;
-nc:文件存在時,下載文件不覆蓋原有文件;
-nv:下載時只顯示更新和出錯信息,不顯示指令的詳細執行過程;
-q:不顯示指令執行過程;
-nh:不查詢主機名稱;
-v:顯示詳細執行過程;
-V:顯示版本信息;
--passive-ftp:使用被動模式PASV鏈接FTP服務器;
--follow-ftp:從HTML文件中下載FTP鏈接文件。

參數linux

URL:下載指定的URL地址。瀏覽器

實例

使用wget下載單個文件服務器

wget http://www.linuxde.net/testfile.zip

如下的例子是從網絡下載一個文件並保存在當前目錄,在下載的過程當中會顯示進度條,包含(下載完成百分比,已經下載的字節,當前下載速度,剩餘下載時間)。網絡

下載並以不一樣的文件名保存ide

wget -O wordpress.zip http://www.linuxde.net/download.aspx?id=1080

wget默認會以最後一個符合/的後面的字符來命令,對於動態連接的下載一般文件名會不正確。wordpress

錯誤:下面的例子會下載一個文件並以名稱download.aspx?id=1080保存:測試

wget http://www.linuxde.net/download?id=1

  即便下載的文件是zip格式,它仍然以download.php?id=1080命令。網站

正確:爲了解決這個問題,咱們能夠使用參數-O來指定一個文件名:

wget -O wordpress.zip http://www.linuxde.net/download.aspx?id=1080

wget限速下載

wget --limit-rate=300k http://www.linuxde.net/testfile.zip

當你執行wget的時候,它默認會佔用所有可能的寬帶下載。可是當你準備下載一個大文件,而你還須要下載其它文件時就有必要限速了。

使用wget斷點續傳

wget -c http://www.linuxde.net/testfile.zip

使用wget -c從新啓動下載中斷的文件,對於咱們下載大文件時忽然因爲網絡等緣由中斷很是有幫助,咱們能夠繼續接着下載而不是從新下載一個文件。須要繼續中斷的下載時能夠使用-c參數。

使用wget後臺下載

wget -b http://www.linuxde.net/testfile.zip
Continuing in background, pid 1840.
Output will be written to `wget-log'.

對於下載很是大的文件的時候,咱們能夠使用參數-b進行後臺下載,你能夠使用如下命令來察看下載進度:

tail -f wget-log

假裝代理名稱下載

wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" http://www.linuxde.net/testfile.zip

有些網站能經過根據判斷代理名稱不是瀏覽器而拒絕你的下載請求。不過你能夠經過--user-agent參數假裝。

測試下載連接

當你打算進行定時下載,你應該在預約時間測試下載連接是否有效。咱們能夠增長--spider參數進行檢查。

wget --spider URL

若是下載連接正確,將會顯示:

Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.

這保證了下載能在預約的時間進行,但當你給錯了一個連接,將會顯示以下錯誤:

wget --spider url
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 404 Not Found
Remote file does not exist -- broken link!!!

你能夠在如下幾種狀況下使用--spider參數:

  • 定時下載以前進行檢查
  • 間隔檢測網站是否可用
  • 檢查網站頁面的死連接

增長重試次數

wget --tries=40 URL

若是網絡有問題或下載一個大文件也有可能失敗。wget默認重試20次鏈接下載文件。若是須要,你能夠使用--tries增長重試次數。

下載多個文件

wget -i filelist.txt

首先,保存一份下載連接文件:

cat > filelist.txt
url1
url2
url3
url4

接着使用這個文件和參數-i下載。

鏡像網站

wget --mirror -p --convert-links -P ./LOCAL URL

下載整個網站到本地。

  • --miror開戶鏡像下載。
  • -p下載全部爲了html頁面顯示正常的文件。
  • --convert-links下載後,轉換成本地的連接。
  • -P ./LOCAL保存全部文件和目錄到本地指定目錄。

過濾指定格式下載

wget --reject=gif ur

下載一個網站,但你不但願下載圖片,能夠使用這條命令。

把下載信息存入日誌文件

wget -o download.log URL

不但願下載信息直接顯示在終端而是在一個日誌文件,能夠使用。

限制總下載文件大小

wget -Q5m -i filelist.txt

當你想要下載的文件超過5M而退出下載,你能夠使用。注意:這個參數對單個文件下載不起做用,只能遞歸下載時纔有效。

下載指定格式文件

wget -r -A.pdf url

能夠在如下狀況使用該功能:

  • 下載一個網站的全部圖片。
  • 下載一個網站的全部視頻。
  • 下載一個網站的全部PDF文件。

FTP下載

wget ftp-url
wget --ftp-user=USERNAME --ftp-password=PASSWORD url

能夠使用wget來完成ftp連接的下載。

使用wget匿名ftp下載:

wget ftp-url

使用wget用戶名和密碼認證的ftp下載:

wget --ftp-user=USERNAME --ftp-password=PASSWORD url

 

wget命令很方面咱們下載文件及軟件,只要把其對應的連接輸在後面就能夠進行下載。

相關文章
相關標籤/搜索