wget是linux最經常使用的下載命令,通常的使用方法是:wget+空格+要下載文件的url路徑
例如:#wgethttp://www.linuxsense.org/xxxx/xxx.tar.gz
簡單說一下-c參數,這個也很是常見,能夠斷點續傳,若是不當心終止了,能夠繼續使用命令接着下載
例如:#wget-chttp://www.linuxsense.org/xxxx/xxx.tar.gz
下面詳細闡述wget的用法:
wget是一個從網絡上自動下載文件的自由工具。它支持HTTP,HTTPS和FTP協議,能夠使用HTTP代理.
所謂的自動下載是指,wget能夠在用戶退出系統的以後在後臺執行。這意味這你能夠登陸系統,啓動一個wget下載任務,而後退出系統,wget將在後臺執行直到任務完成,相對於其它大部分瀏覽器在下載大量數據時須要用戶一直的參與,這省去了極大的麻煩。
wget能夠跟蹤HTML頁面上的連接依次下載來建立遠程服務器的本地版本,徹底重建原始站點的目錄結構。這又常被稱做"遞歸下載"。在遞歸下載的時候,wget遵循RobotExclusion標準(/robots.txt).wget能夠在下載的同時,將連接轉換成指向本地文件,以方便離線瀏覽。
wget很是穩定,它在帶寬很窄的狀況下和不穩定網絡中有很強的適應性.若是是因爲網絡的緣由下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。若是是服務器打斷下載過程,它會再次聯到服務器上從中止的地方繼續下載。這對從那些限定了連接時間的服務器上下載大文件很是有用。
wget的常見用法
wget的使用格式
Usage:wget[OPTION]...[URL]...
*用wget作站點鏡像:
wget-r-p-np-khttp://dsec.pku.edu.cn/~usr_name/
#或者
wget-mhttp://www.tldp.org/LDP/abs/html/
*在不穩定的網絡上下載一個部分下載的文件,以及在空閒時段下載
wget-t0-w31-chttp://dsec.pku.edu.cn/BBC.avi-odown.log&
#或者從filelist讀入要下載的文件列表
wget-t0-w31-c-Bftp://dsec.pku.edu.cn/linuxsoft-ifilelist.txt-odown.log&
上面的代碼還能夠用來在網絡比較空閒的時段進行下載。個人用法是:在mozilla中將不方便當時下載的URL連接拷貝到內存中而後粘貼到文件filelist.txt中,在晚上要出去系統前執行上面代碼的第二條。
*使用代理下載
wget-Yon-p-khttps://sourceforge.net/projects/wvware/
代理能夠在環境變量或wgetrc文件中設定
#在環境變量中設定代理
exportPROXY=http://211.90.168.94:8080/
#在~/.wgetrc中設定代理
http_proxy=http://proxy.yoyodyne.com:18023/
ftp_proxy=http://proxy.yoyodyne.com:18023/
wget各類選項分類列表
*啓動
-V,--version顯示wget的版本後退出
-h,--help打印語法幫助
-b,--background啓動後轉入後臺執行
-e,--execute=COMMAND執行`.wgetrc'格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc
*記錄和輸入文件
-o,--output-file=FILE把記錄寫到FILE文件中
-a,--append-output=FILE把記錄追加到FILE文件中
-d,--debug打印調試輸出
-q,--quiet安靜模式(沒有輸出)
-v,--verbose冗長模式(這是缺省設置)
-nv,--non-verbose關掉冗長模式,但不是安靜模式
-i,--input-file=FILE下載在FILE文件中出現的URLs
-F,--force-html把輸入文件看成HTML格式文件對待
-B,--base=URL將URL做爲在-F-i參數指定的文件中出現的相對連接的前綴
--sslcertfile=FILE可選客戶端證書
--sslcertkey=KEYFILE可選客戶端證書的KEYFILE
--egd-file=FILE指定EGDsocket的文件名
*下載
--bind-address=ADDRESS指定本地使用地址(主機名或IPhttp://www.apkdownloadapk.com/,當本地有多個IP或名字時使用)
-t,--tries=NUMBER設定最大嘗試連接次數(0表示無限制).
-O--output-document=FILE把文檔寫到FILE文件中
-nc,--no-clobber不要覆蓋存在的文件或使用.#前綴
-c,--continue接着下載沒下載完的文件
--progress=TYPE設定進程條標記
-N,--timestamping不要從新下載文件除非比本地文件新
-S,--server-response打印服務器的迴應
--spider不下載任何東西
-T,--timeout=SECONDS設定響應超時的秒數
-w,--wait=SECONDS兩次嘗試之間間隔SECONDS秒
--waitretry=SECONDS在從新連接之間等待1...SECONDS秒
--random-wait在下載之間等待0...2*WAIT秒
-Y,--proxy=on/off打開或關閉代理
-Q,--quota=NUMBER設置下載的容量限制
--limit-rate=RATE限定下載輸率
*目錄
-nd--no-directories不建立目錄
-x,--force-directories強制建立目錄
-nH,--no-host-directories不建立主機目錄
-P,--directory-prefix=PREFIX將文件保存到目錄PREFIX/...
--cut-dirs=NUMBER忽略NUMBER層遠程目錄
*HTTP選項
--http-user=USER設定HTTP用戶名爲USER.
--http-passwd=PASS設定http密碼爲PASS.
-C,--cache=on/off容許/不容許服務器端的數據緩存(通常狀況下容許).
-E,--html-extension將全部text/html文檔以.html擴展名保存
--ignore-length忽略`Content-Length'頭域
--header=STRING在headers中插入字符串STRING
--proxy-user=USER設定代理的用戶名爲USER
--proxy-passwd=PASS設定代理的密碼爲PASS
--referer=URL在HTTP請求中包含`Referer:URL'頭
-s,--save-headers保存HTTP頭到文件
-U,--user-agent=AGENT設定代理的名稱爲AGENT而不是Wget/VERSION.
--no-http-keep-alive關閉HTTP活動連接(永遠連接).
--cookies=off不使用cookies.
--load-cookies=FILE在開始會話前從文件FILE中加載cookie
--save-cookies=FILE在會話結束後將cookies保存到FILE文件中
*FTP選項
-nr,--dont-remove-listing不移走`.listing'文件
-g,--glob=on/off打開或關閉文件名的globbing機制
--passive-ftp使用被動傳輸模式(缺省值).
--active-ftp使用主動傳輸模式
--retr-symlinks在遞歸的時候http://www.download-cydia.com/,補丁將連接指向文件(而不是目錄)
*遞歸下載
-r,--recursive遞歸下載--慎用!
-l,--level=NUMBER最大遞歸深度(inf或0表明無窮).
--delete-after在如今完畢後局部刪除文件
-k,--convert-links轉換非相對連接爲相對連接
-K,--backup-converted在轉換文件X以前,將之備份爲X.orig
-m,--mirror等價於-r-N-linf-nr.
-p,--page-requisites下載顯示HTML文件的全部圖片
*遞歸下載中的包含和不包含(accept/reject)
-A,--accept=LIST分號分隔的被接受擴展名的列表
-R,--reject=LIST分號分隔的不被接受的擴展名的列表
-D,--domains=LIST分號分隔的被接受域的列表
--exclude-domains=LIST分號分隔的不被接受的域的列表
--follow-ftp跟蹤HTML文檔中的FTP連接
--follow-tags=LIST分號分隔的被跟蹤的HTML標籤的列表
-G,--ignore-tags=LIST分號分隔的被忽略的HTML標籤的列表
-H,--span-hosts當遞歸時轉到外部主機
-L,--relative僅僅跟蹤相對連接
-I,--include-directories=LIST容許目錄的列表
-X,--exclude-directories=LIST不被包含目錄的列表
-np,--no-parent不要追溯到父目錄html