linux命令--wget命令

wget命令是一個下載文件的工具,wget支持http,https和ftp協議,可使用http代理,同時wget能夠再用戶退出系統後繼續再後臺執行。html

wget 能夠跟蹤HTML頁面上的連接依次下載來建立遠程服務器的本地版本,徹底重建原始站點的目錄結構。這又常被稱做」遞歸下載」。在遞歸下載的時候,wget 遵循Robot Exclusion標準(/robots.txt). wget能夠在下載的同時,將連接轉換成指向本地文件,以方便離線瀏覽。shell

wget支持斷點下傳,同時支持ftp和http,支持代理服務器。
緩存

wget支持的參數有
服務器

啓動參數:
-V, –version 顯示wget的版本後退出
-h, –help 打印語法幫助
-b, –background 啓動後轉入後臺執行
-e, –execute=COMMAND 執行`.wgetrc’格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc
記錄和輸入文件參數:
-o, –output-file=FILE 把記錄寫到FILE文件中
-a, –append-output=FILE 把記錄追加到FILE文件中
-d, –debug 打印調試輸出
-q, –quiet 安靜模式(沒有輸出)
-v, –verbose 冗長模式(這是缺省設置)
-nv, –non-verbose 關掉冗長模式,但不是安靜模式
-i, –input-file=FILE 下載在FILE文件中出現的URLs
-F, –force-html 把輸入文件看成HTML格式文件對待
-B, –base=URL 將URL做爲在-F -i參數指定的文件中出現的相對連接的前綴
–sslcertfile=FILE 可選客戶端證書
–sslcertkey=KEYFILE 可選客戶端證書的KEYFILE
–egd-file=FILE 指定EGD socket的文件名
下載參數:
–bind-address=ADDRESS 指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)
-t, –tries=NUMBER 設定最大嘗試連接次數(0 表示無限制).
-O –output-document=FILE 把文檔寫到FILE文件中
-nc, –no-clobber 不要覆蓋存在的文件或使用.#前綴
-c, –continue 接着下載沒下載完的文件
–progress=TYPE 設定進程條標記
-N, –timestamping 不要從新下載文件除非比本地文件新
-S, –server-response 打印服務器的迴應
–spider 不下載任何東西
-T, –timeout=SECONDS 設定響應超時的秒數
-w, –wait=SECONDS 兩次嘗試之間間隔SECONDS秒
–waitretry=SECONDS 在從新連接之間等待1…SECONDS秒
–random-wait 在下載之間等待0…2*WAIT秒
-Y, –proxy=on/off 打開或關閉代理
-Q, –quota=NUMBER 設置下載的容量限制
–limit-rate=RATE 限定下載輸率
目錄參數:
-nd –no-directories 不建立目錄
-x, –force-directories 強制建立目錄
-nH, –no-host-directories 不建立主機目錄
-P, –directory-prefix=PREFIX 將文件保存到目錄 PREFIX/…
–cut-dirs=NUMBER 忽略 NUMBER層遠程目錄
HTTP 選項參數:
–http-user=USER 設定HTTP用戶名爲 USER.
–http-passwd=PASS 設定http密碼爲 PASS
-C, –cache=on/off 容許/不容許服務器端的數據緩存 (通常狀況下容許)
-E, –html-extension 將全部text/html文檔以.html擴展名保存
–ignore-length 忽略 `Content-Length’頭域
–header=STRING 在headers中插入字符串 STRING
–proxy-user=USER 設定代理的用戶名爲 USER
–proxy-passwd=PASS 設定代理的密碼爲 PASS
–referer=URL 在HTTP請求中包含 `Referer: URL’頭
-s, –save-headers 保存HTTP頭到文件
-U, –user-agent=AGENT 設定代理的名稱爲 AGENT而不是 Wget/VERSION
–no-http-keep-alive 關閉 HTTP活動連接 (永遠連接)
–cookies=off 不使用 cookies
–load-cookies=FILE 在開始會話前從文件 FILE中加載cookie
–save-cookies=FILE 在會話結束後將 cookies保存到 FILE文件中
FTP 選項參數:
-nr, –dont-remove-listing 不移走 `.listing’文件
-g, –glob=on/off 打開或關閉文件名的 globbing機制
–passive-ftp 使用被動傳輸模式 (缺省值).
–active-ftp 使用主動傳輸模式
–retr-symlinks 在遞歸的時候,將連接指向文件(而不是目錄)
遞歸下載參數:
-r, –recursive 遞歸下載--慎用!
-l, –level=NUMBER 最大遞歸深度 (inf 或 0 表明無窮)
–delete-after 在如今完畢後局部刪除文件
-k, –convert-links 轉換非相對連接爲相對連接
-K, –backup-converted 在轉換文件X以前,將之備份爲 X.orig
-m, –mirror 等價於 -r -N -l inf -nr
-p, –page-requisites 下載顯示HTML文件的全部圖片
遞歸下載中的包含和不包含(accept/reject):
-A, –accept=LIST 分號分隔的被接受擴展名的列表
-R, –reject=LIST 分號分隔的不被接受的擴展名的列表
-D, –domains=LIST 分號分隔的被接受域的列表
–exclude-domains=LIST 分號分隔的不被接受的域的列表
–follow-ftp 跟蹤HTML文檔中的FTP連接
–follow-tags=LIST 分號分隔的被跟蹤的HTML標籤的列表
-G, –ignore-tags=LIST 分號分隔的被忽略的HTML標籤的列表
-H, –span-hosts 當遞歸時轉到外部主機
-L, –relative 僅僅跟蹤相對連接
-I, –include-directories=LIST 容許目錄的列表
-X, –exclude-directories=LIST 不被包含目錄的列表
-np, –no-parent 不要追溯到父目錄
wget -S –spider url 不下載只顯示過程

命令1 下載文件 -O 參數能夠指定文件名,-c能夠指定斷點續傳,-b是能夠後臺下載,tail -f wget-log能夠用來查看下載進度cookie

wget -O wordpress.zip http://www.minjieren.com/download.aspx?id=1080

命令2 限定下載速度app

wget --limit-rate=300k http://www.minjieren.com/wordpress-3.1-zh_CN.zip

命令3 假裝代理下載文件dom

wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" http://www.minjieren.com/wordpress-3.1-zh_CN.zip

命令4 測試下載連接socket

wget --spider URL

命令5 增長重試次數ide

wget --tries=40 URL

命令5 下載多個文件wordpress

wget -i filelist.txt

cat > filelist.txt
url1
url2
url3
url4

命令6 鏡像整個網站,–miror:開戶鏡像下載,-p:下載全部爲了html頁面顯示正常的文件,–convert-links:下載後,轉換成本地的連接,-P ./LOCAL:保存全部文件和目錄到本地指定目錄

wget --mirror -p --convert-links -P ./LOCAL URL

命令7 過濾指定的格式 不下載gif,也能夠指定格式下載,只下載pdf文件

wget --reject=gif url
wget -r -A.pdf url

命令8 將下載信息存到文件中

wget -o download.log URL

命令9 限制總下載文件的大小,只有遞歸下載的時候有效,對單個文件不生效

wget -Q5m -i filelist.txt

命令10 使用ftp下載

wget ftp-url
wget --ftp-user=USERNAME --ftp-password=PASSWORD url

參考文檔:http://www.cnblogs.com/peida/archive/2013/03/18/2965369.html

相關文章
相關標籤/搜索