curl能夠下載,可是長項不在於下載,而在於模擬提交web數據,POST/GET請求,調試網頁,等等。curl支持URL中加入變量,所以能夠批量下載。;php
使用curl 來跟網站的API 交互,簡便清晰。html
1.安裝:linux
sudo apt install curl
2.查看是否成功:nginx
curl --version
一、查看某網頁(該方法大部分用來測試服務器是否能到達另外一個網站):curl [URL]web
curl http://www.baidu.com
二、訪問HTTP認證頁面瀏覽器
curl –u user:pass URL
三、 重定向保存: curl [URL] >> [你的命名]服務器
curl http://www.baidu.com >> baidu.html
四、下載網頁:curl -o [你的命名] [URL] ,若是有亂碼可使用iconv轉碼cookie
curl -o baidu.html www.baidu.com curl –s –o baidu.html www.baidu.com |iconv -f utf-8 #減小輸出信息
五、下載網頁中具體某個文件:curl -O [URL]:app
curl -O http://www.baidu.com/a7.png
六、指定proxy服務器以及其端口:curl -x [ip:端口] [URL]dom
curl -x 192.168.0.1:1080 http://www.baidu.com
七、模擬用戶登錄,保存cookie信息到cookies.txt文件,再使用cookie登錄
curl -c ./cookies.txt -F NAME=user -F PWD=***URL curl -b ./cookies.txt –o URL
八、獲取和保存HTTP響應頭headers:curl -D [保存格式] [URL]
curl -I http://www.baidu.com curl -D ./header.txt http://www.baidu.com #將headers保存到文件中
九、模仿瀏覽器:curl -A [UA] [URL]
curl -A "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.0)" http://www.baidu.com
十、斷點續傳:curl -C -O [URL]
curl -C -O http://www.linux.com/dodo1.JPG
十二、經過ftp上傳和下載文件:curl -T [文件] -u username:password ftp:[URL] :
curl -T filename ftp://user:pass@ip/docs #上傳
curl -T dodo1.JPG -u 用戶名:密碼 ftp://www.linux.com/img/ #上傳 curl -O ftp://user:pass@ip/filename #下載
wget是個專職的下載利器,簡單,專注,極致;
wget能夠遞歸,支持斷點。加 -c選項不怕斷網
1.安裝wget:
sudo apt install wget
2.查看是否成功:
wget --version
三、用法:wget [OPTION]... [URL]...
1 啓動參數
2 日誌記錄和輸入文件參數
3 下載參數
4 目錄參數
5 HTTP參數
6 FTP參數
7 遞歸下載排除參數
一、使用wget下載單個文件 :wget [URL]
wget http://cn2.php.net/distributions/php-5.6.13.tar.gz
二、下載並以不一樣的文件名保存 :wget -o [你的命名] [URL]
wget -o php5.6.tar.gz http://cn2.php.net/distributions/php-5.6.13.tar.gz
三、使用wget斷點續傳:wget -c [上次下載的URL]
wget -c http://cn2.php.net/distributions/php-5.6.13.tar.gz
四、使用wget後臺下載 :wget -b [URL]
wget -b http://cn2.php.net/distributions/php-5.6.13.tar.gz
tail -f wget-log #查看文件下載進度
五、使用wget下載到指定目錄:wget [URL] -P [存儲地址]
wget http://cn2.php.net/distributions/php-5.6.13.tar.gz -P Download/
六、使用wget用戶名和密碼認證下載,登錄ftp下載文件:
wget --ftp-user=USERNAME --ftp-password=PASSWORD ftp://ip/filenam
七、能夠利用—spider參數判斷網址是否有效
wget –spider http://nginx.org/download/nginx-1.8.0.tar.gz
八、自動從多個連接下載文件
cat url_list.txt #先建立一個URL文件 http://nginx.org/download/nginx-1.8.0.tar.gz http://nginx.org/download/nginx-1.6.3.tar.gz wget -i url_list.txt
curl因爲可自定義各類請求參數因此在模擬web請求方面更擅長;wget因爲支持ftp和Recursive因此在下載文件方面更擅長。類比的話curl是瀏覽器,而wget是迅雷9。
curl -O http://man.linuxde.net/text.iso #O大寫,不用O只是打印內容不會下載 wget http://www.linuxde.net/text.iso #不用參數,直接下載文件
curl -o rename.iso http://man.linuxde.net/text.iso #o小寫 wget -O rename.zip http://www.linuxde.net/text.iso #O大寫
curl -O -C -URL http://man.linuxde.net/text.iso #C大 wget -c http://www.linuxde.net/text.iso #c小寫
curl --limit-rate 50k -O http://man.linuxde.net/text.iso wget --limit-rate=50k http://www.linuxde.net/text.iso
curl -I http://man.linuxde.net/text.iso wget --server-response http://www.linuxde.net/test.iso
wget --mirror -p --convert-links -P /var/www/html http://man.linuxde.net/