python urllib2使用細節

恰好用到,這篇文章寫得不錯,轉過來收藏。    轉載自 道可道 | Python 標準庫 urllib2 的使用細節python

Python 標準庫中有不少實用的工具類,可是在具體使用時,標準庫文檔上對使用細節描述的並不清楚,好比 urllib2 這個 HTTP 客戶端庫。這裏總結了一些 urllib2 庫的使用細節。web

 

1 Proxy 的設置

urllib2 默認會使用環境變量 http_proxy 來設置 HTTP Proxy。若是想在程序中明確控制 Proxy,而不受環境變量的影響,可使用下面的方式json

import urllib2
 
enable_proxy = True
proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
null_proxy_handler = urllib2.ProxyHandler({})
 
if enable_proxy:
    opener = urllib2.build_opener(proxy_handler)
else:
    opener = urllib2.build_opener(null_proxy_handler)
 
urllib2.install_opener(opener)

這裏要注意的一個細節,使用 urllib2.install_opener() 會設置 urllib2 的全局 opener。這樣後面的使用會很方便,但不能作更細粒度的控制,好比想在程序中使用兩個不一樣的 Proxy 設置等。比較好的作法是不使用 install_opener 去更改全局的設置,而只是直接調用 opener 的 open 方法代替全局的 urlopen 方法。瀏覽器

2 Timeout 設置

在老版本中,urllib2 的 API 並無暴露 Timeout 的設置,要設置 Timeout 值,只能更改 Socket 的全局 Timeout 值。cookie

import urllib2
import socket
 
socket.setdefaulttimeout(10) # 10 秒鐘後超時
urllib2.socket.setdefaulttimeout(10) # 另外一種方式

在新的 Python 2.6 版本中,超時能夠經過 urllib2.urlopen() 的 timeout 參數直接設置。app

import urllib2
response = urllib2.urlopen('http://www.google.com', timeout=10)

3 在 HTTP Request 中加入特定的 Header

要加入 Header,須要使用 Request 對象:socket

import urllib2
 
request = urllib2.Request(uri)
request.add_header('User-Agent', 'fake-client')
response = urllib2.urlopen(request)

對有些 header 要特別留意,Server 端會針對這些 header 作檢查工具

  • User-Agent 有些 Server 或 Proxy 會檢查該值,用來判斷是不是瀏覽器發起的 Request
  • Content-Type 在使用 REST 接口時,Server 會檢查該值,用來肯定 HTTP Body 中的內容該怎樣解析。

     

    常見的取值有:post

    • application/xml :在 XML RPC,如 RESTful/SOAP 調用時使用
    • application/json :在 JSON RPC 調用時使用
    • application/x-www-form-urlencoded :瀏覽器提交 Web 表單時使用ui

    • ……

       

    在使用 RPC 調用 Server 提供的 RESTful 或 SOAP 服務時, Content-Type 設置錯誤會致使 Server 拒絕服務。

4 Redirect

urllib2 默認狀況下會針對 3xx HTTP 返回碼自動進行 Redirect 動做,無需人工配置。要檢測是否發生了 Redirect 動做,只要檢查一下 Response 的 URL 和 Request 的 URL 是否一致就能夠了。

import urllib2
response = urllib2.urlopen('http://www.google.cn')
redirected = response.geturl() == 'http://www.google.cn'

若是不想自動 Redirect,除了使用更低層次的 httplib 庫以外,還可使用自定義的 HTTPRedirectHandler 類。

import urllib2
 
class RedirectHandler(urllib2.HTTPRedirectHandler):
    def http_error_301(self, req, fp, code, msg, headers):
        pass
    def http_error_302(self, req, fp, code, msg, headers):
        pass
 
opener = urllib2.build_opener(RedirectHandler)
opener.open('http://www.google.cn')

5 Cookie

urllib2 對 Cookie 的處理也是自動的。若是須要獲得某個 Cookie 項的值,能夠這麼作:

import urllib2
import cookielib
 
cookie = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open('http://www.google.com')
for item in cookie:
    if item.name == 'some_cookie_item_name':
        print item.value

6 使用 HTTP 的 PUT 和 DELETE 方法

urllib2 只支持 HTTP 的 GET 和 POST 方法,若是要使用 HTTP PUT 和 DELETE,只能使用比較低層的 httplib 庫。雖然如此,咱們仍是能經過下面的方式,使 urllib2 可以發出 HTTP PUT 或 DELETE 的包:

import urllib2
 
request = urllib2.Request(uri, data=data)
request.get_method = lambda: 'PUT' # or 'DELETE'
response = urllib2.urlopen(request)

這種作法雖然屬於 Hack 的方式,但實際使用起來也沒什麼問題。

7 獲得 HTTP 的返回碼

對於 200 OK 來講,只要使用 urlopen 返回的 response 對象的 getcode() 方法就能夠獲得 HTTP 的返回碼。但對其它返回碼來講,urlopen 會拋出異常。這時候,就要檢查異常對象的 code 屬性了:

import urllib2
try:
    response = urllib2.urlopen('http://restrict.web.com')
except urllib2.HTTPError, e:
    print e.code

8 Debug Log

使用 urllib2 時,能夠經過下面的方法把 Debug Log 打開,這樣收發包的內容就會在屏幕上打印出來,方便咱們調試,在必定程度上能夠省去抓包的工做。

import urllib2
 
httpHandler = urllib2.HTTPHandler(debuglevel=1)
httpsHandler = urllib2.HTTPSHandler(debuglevel=1)
opener = urllib2.build_opener(httpHandler, httpsHandler)
 
urllib2.install_opener(opener)
response = urllib2.urlopen('http://www.google.com')
相關文章
相關標籤/搜索