urllib2 的使用細節(轉)

Python 標準庫中有不少實用的工具類,可是在具體使用時,標準庫文檔上對使用細節描述的並不清楚,好比 urllib2 這個 HTTP 客戶端庫。這裏總結了一些 urllib2 庫的使用細節。 python

1 Proxy 的設置

urllib2 默認會使用環境變量 http_proxy 來設置 HTTP Proxy。若是想在程序中明確控制 Proxy,而不受環境變量的影響,可使用下面的方式 web

import urllib2  
enable_proxy = True 
proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'}) 
null_proxy_handler = urllib2.ProxyHandler({})  
if enable_proxy:
    opener = urllib2.build_opener(proxy_handler) 
else:
    opener = urllib2.build_opener(null_proxy_handler)  urllib2.install_opener(opener)

這裏要注意的一個細節,使用 urllib2.install_opener() 會設置 urllib2 的全局 opener。這樣後面的使用會很方便,但不能作更細粒度的控制,好比想在程序中使用兩個不一樣的 Proxy 設置等。比較好的作法是不使用 install_opener 去更改全局的設置,而只是直接調用 opener 的 open 方法代替全局的 urlopen 方法。

2 Timeout 設置

在老版本中,urllib2 的 API 並無暴露 Timeout 的設置,要設置 Timeout 值,只能更改 Socket 的全局 Timeout 值。json

import urllib2 
import socket  

socket.setdefaulttimeout(10) # 10 秒鐘後超時 
urllib2.socket.setdefaulttimeout(10) # 另外一種方式

在新的 Python 2.6 版本中,超時能夠經過 urllib2.urlopen() 的 timeout 參數直接設置。 瀏覽器

import urllib2 
response = urllib2.urlopen('http://www.google.com', timeout=10)

3 在 HTTP Request 中加入特定的 Header

要加入 Header,須要使用 Request 對象:cookie

import urllib2 
 
request = urllib2.Request(uri) 
request.add_header('User-Agent', 'fake-client') 
response = urllib2.urlopen(request)

對有些 header 要特別留意,Server 端會針對這些 header 作檢查app

  • User-Agent 有些 Server 或 Proxy 會檢查該值,用來判斷是不是瀏覽器發起的 Request
  • Content-Type 在使用 REST 接口時,Server 會檢查該值,用來肯定 HTTP Body 中的內容該怎樣解析。

    常見的取值有: socket

    • application/xml :在 XML RPC,如 RESTful/SOAP 調用時使用
    • application/json :在 JSON RPC 調用時使用
    • application/x-www-form-urlencoded :瀏覽器提交 Web 表單時使用 工具

    • ……

    在使用 RPC 調用 Server 提供的 RESTful 或 SOAP 服務時, Content-Type 設置錯誤會致使 Server 拒絕服務。 ui

4 Redirect

urllib2 默認狀況下會針對 3xx HTTP 返回碼自動進行 Redirect 動做,無需人工配置。要檢測是否發生了 Redirect 動做,只要檢查一下 Response 的 URL 和 Request 的 URL 是否一致就能夠了。 google

 

import urllib2 

response = urllib2.urlopen('http://www.google.cn') 
whether_redirected = response.geturl() == 'http://www.google.cn'

若是不想自動 Redirect,除了使用更低層次的 httplib 庫以外,還可使用自定義的 HTTPRedirectHandler 類。

 

import urllib2  

class RedirectHandler(urllib2.HTTPRedirectHandler):
    def http_error_301(self, req, fp, code, msg, headers):
        pass     
    def http_error_302(self, req, fp, code, msg, headers):
        pass  

opener = urllib2.build_opener(RedirectHandler) 
opener.open('http://www.google.cn')

5 Cookie

urllib2 對 Cookie 的處理也是自動的。若是須要獲得某個 Cookie 項的值,能夠這麼作:

import urllib2 
import cookielib  

cookie = cookielib.CookieJar() 
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie)) response = opener.open('http://www.google.com') 
for item in cookie:
    if item.name == 'some_cookie_item_name':
        print item.value

 

6 使用 HTTP 的 PUT 和 DELETE 方法

urllib2 只支持 HTTP 的 GET 和 POST 方法,若是要使用 HTTP PUT 和 DELETE,只能使用比較低層的 httplib 庫。雖然如此,咱們仍是能經過下面的方式,使 urllib2 可以發出 HTTP PUT 或 DELETE 的包:

import urllib2  

request = urllib2.Request(uri, data=data) 
request.get_method = lambda: 'PUT' # or 'DELETE' 
response = urllib2.urlopen(request)

這種作法雖然屬於 Hack 的方式,但實際使用起來也沒什麼問題。

7 獲得 HTTP 的返回碼

對於 200 OK 來講,只要使用 urlopen 返回的 response 對象的 getcode() 方法就能夠獲得 HTTP 的返回碼。但對其它返回碼來講,urlopen 會拋出異常。這時候,就要檢查異常對象的 code 屬性了:

import urllib2 
try:
    response = urllib2.urlopen('http://restrict.web.com') 
except urllib2.HTTPError, e:
    print e.code

8 Debug Log

使用 urllib2 時,能夠經過下面的方法把 Debug Log 打開,這樣收發包的內容就會在屏幕上打印出來,方便咱們調試,在必定程度上能夠省去抓包的工做。

import urllib2
  
httpHandler = urllib2.HTTPHandler(debuglevel=1) 
httpsHandler = urllib2.HTTPSHandler(debuglevel=1) 
opener = urllib2.build_opener(httpHandler, httpsHandler)  urllib2.install_opener(opener) 
response = urllib2.urlopen('http://www.google.com')
相關文章
相關標籤/搜索