在python2中,urllib和urllib2都是接受URL請求的相關模塊,可是提供了不一樣的功能。兩個最顯著的不一樣以下:html
一、urllib2能夠接受一個Request類的實例來設置URL請求的headers,例如:python
1 req = urllib2.Request( 2 [python] view plain copy 3 url=url, 4 data=postdata, 5 headers=headers 6 ) 7 result = urllib2.urlopen(req)
咱們知道,HTTP是無鏈接的狀態協議,可是客戶端和服務器端須要保持一些相互信息,好比cookie,有了cookie,服務器才能知道剛纔是這個用戶登陸了網站,纔會給予客戶端訪問一些頁面的權限。因此咱們須要保存cookie,以後附帶cookie再來訪問網站,纔可以達到效果。這裏就須要Python的cookielib和urllib2等的配合,將cookielib綁定到urllib2在一塊兒,就可以在請求網頁的時候附帶cookie。在構造req請求以前能夠獲取一個保存cookies的對象,並把該對象和http處理器、http的handler資源以及urllib2的對象綁定在一塊兒:web
1 cj = cookielib.LWPCookieJar() 2 cookie_support = urllib2.HTTPCookieProcessor(cj) 3 # 建立一個opener,將保存了cookie的http處理器,還有設置一個handler用於處理http的URL的打開 4 opener = urllib2.build_opener(cookie_support, urllib2.HTTPHandler) 5 # 將包含了cookie、http處理器、http的handler的資源和urllib2對象板頂在一塊兒 6 urllib2.install_opener(opener)
二、urllib僅能夠接受URL。這意味着,你不能夠假裝你的User Agent字符串等。python3.x
可是urllib提供urlencode方法用來GET查詢字符串的產生,而urllib2沒有。這是就是爲什麼urllib常和urllib2一塊兒使用的緣由,以下:瀏覽器
1 postdata = urllib.urlencode(postdata)
(把字典形式的postdata編碼一下)
Tip: if you are planning to do HTTP stuff only, check out httplib2, it is much better than httplib or urllib or urllib2.安全
》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》服務器
下面說說Python3x中的urllib包、http包以及其餘比較好使的第三方包cookie
一、Python3 urllib、http網絡
Python3不像2x中酷虎的和服務器模塊結構散亂,Python3中把這些打包成爲了2個包,就是http與urllib,詳解以下:app
http會處理全部客戶端--服務器http請求的具體細節,其中:
(1)client會處理客戶端的部分
(2)server會協助你編寫Python web服務器程序
(3)cookies和cookiejar會處理cookie,cookie能夠在請求中存儲數據
使用cookiejar示例能夠在前幾篇博客中基於Python3的爬蟲中找到示例,以下:
1 import http.cookiejar 2 import urllib.request 3 import urllib.parse</span></span> 4 def getOpener(head): 5 # deal with the Cookies 6 cj = http.cookiejar.CookieJar() 7 pro = urllib.request.HTTPCookieProcessor(cj) 8 opener = urllib.request.build_opener(pro) 9 header = [] 10 for key, value in head.items(): 11 elem = (key, value) 12 header.append(elem) 13 opener.addheaders = header 14 return opener
urllib是基於http的高層庫,它有如下三個主要功能:
(1)request處理客戶端的請求
(2)response處理服務端的響應
(3)parse會解析url
下面是使用Python3中urllib來獲取資源的一些示例:
1 1、最簡單 2 import urllib.request 3 response = urllib.request.urlopen('http://python.org/') 4 html = response.read()
1 2、使用 Request 2 import urllib.request 3 req = urllib.request.Request('http://python.org/') 4 response = urllib.request.urlopen(req) 5 the_page = response.read()
1 3、發送數據 2 import urllib.parse 3 import urllib.request 4 url = '" 5 values = { 6 'act' : 'login', 7 'login[email]' : '', 8 'login[password]' : '' 9 } 10 data = urllib.parse.urlencode(values) 11 req = urllib.request.Request(url, data) 12 req.add_header('Referer', 'http://www.python.org/') 13 response = urllib.request.urlopen(req) 14 the_page = response.read() 15 print(the_page.decode("utf8"))
1 4、發送數據和header 2 import urllib.parse 3 import urllib.request 4 url = '' 5 user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' 6 values = { 7 'act' : 'login', 8 'login[email]' : '', 9 'login[password]' : '' 10 } 11 headers = { 'User-Agent' : user_agent } 12 data = urllib.parse.urlencode(values) 13 req = urllib.request.Request(url, data, headers) 14 response = urllib.request.urlopen(req) 15 the_page = response.read() 16 print(the_page.decode("utf8"))
1 5、http 錯誤 2 import urllib.request 3 req = urllib.request.Request(' ') 4 try: 5 urllib.request.urlopen(req) 6 except urllib.error.HTTPError as e: 7 print(e.code) 8 print(e.read().decode("utf8"))
1 6、異常處理1 2 from urllib.request import Request, urlopen 3 from urllib.error import URLError, HTTPError 4 req = Request("http://www..net /") 5 try: 6 response = urlopen(req) 7 except HTTPError as e: 8 print('The server couldn't fulfill the request.') 9 print('Error code: ', e.code) 10 except URLError as e: 11 print('We failed to reach a server.') 12 print('Reason: ', e.reason) 13 else: 14 print("good!") 15 print(response.read().decode("utf8"))
1 7、異常處理2 2 from urllib.request import Request, urlopen 3 from urllib.error import URLError 4 req = Request("http://www.Python.org/") 5 try: 6 response = urlopen(req) 7 except URLError as e: 8 if hasattr(e, 'reason'): 9 print('We failed to reach a server.') 10 print('Reason: ', e.reason) 11 elif hasattr(e, 'code'): 12 print('The server couldn't fulfill the request.') 13 print('Error code: ', e.code) 14 else: 15 print("good!") 16 print(response.read().decode("utf8"))
1 8、HTTP 認證 2 import urllib.request 3 # create a password manager 4 password_mgr = urllib.request.HTTPPasswordMgrWithDefaultRealm() 5 # Add the username and password. 6 # If we knew the realm, we could use it instead of None. 7 top_level_url = "" 8 password_mgr.add_password(None, top_level_url, 'rekfan', 'xxxxxx') 9 handler = urllib.request.HTTPBasicAuthHandler(password_mgr) 10 # create "opener" (OpenerDirector instance) 11 opener = urllib.request.build_opener(handler) 12 # use the opener to fetch a URL 13 a_url = "" 14 x = opener.open(a_url) 15 print(x.read()) 16 # Install the opener. 17 # Now all calls to urllib.request.urlopen use our opener. 18 urllib.request.install_opener(opener) 19 a = urllib.request.urlopen(a_url).read().decode('utf8') 20 print(a)
1 9、使用代理 2 import urllib.request 3 proxy_support = urllib.request.ProxyHandler({'sock5': 'localhost:1080'}) 4 opener = urllib.request.build_opener(proxy_support) 5 urllib.request.install_opener(opener) 6 a = urllib.request.urlopen("").read().decode("utf8") 7 print(a)
1 10、超時 2 import socket 3 import urllib.request 4 # timeout in seconds 5 timeout = 2 6 socket.setdefaulttimeout(timeout) 7 # this call to urllib.request.urlopen now uses the default timeout 8 # we have set in the socket module 9 req = urllib.request.Request('') 10 a = urllib.request.urlopen(req).read() 11 print(a)
上面例子大概把經常使用的一些狀況都羅列出來了,其中對異常的處理要嚴格按照:
try...exceptA...exceptB...except...else...finally...
的語法格式來寫,詳情請參考個人另外一篇相關博文
》》》》》》》》》》》》》》》》》》》》》》》》
二、除了使用官方標準庫的urllib,咱們能夠使用更好用的第三方模塊,如requests
Requests 徹底知足現在網絡的需求,其功能有如下:
.netrc
附加:
在python2.x中raw_input( )和input( ),兩個函數都存在,其中區別爲
raw_input( )---將全部輸入做爲字符串看待,返回字符串類型
input( )-----只能接收「數字」的輸入,在對待純數字輸入時具備本身的特性,它返回所輸入的數字的類型( int, float )
在python3.x中raw_input( )和input( )進行了整合,去除了raw_input( ),僅保留了input( )函數,其接收任意任性輸入,將全部輸入默認爲字符串處理,並返回字符串類型。