python有關urllib,urllib2和requests應用記錄

首先了解http協議信息包括uri,boby,headers,等一些構成成分,還有幾種請求方式如get,post,delete,put等大概7種左右記不清楚了。其餘用的較少。java

首先python接口自動化http協議先考慮,接口的需求和複雜程度等,若是工具運用自如徹底能夠不用本身寫腳本,如jmeter,Loadrunner,soapui還有一些插件如postman等等。python

其次設計思路很重要要作成什麼樣的,若是工具能夠完成的事那要你寫他幹什麼呢?本身以前寫的一套就是若是雖然說能夠從頭跑到尾,隨機跑也有斷言log之類,可是因爲幾乎是沒有封裝api因此接口太多,以致於不一樣方法上只有本身改起來會容易一些別人很難下手。json

最後懼怕忘記備註一下:
api

req = urllib2.Request(url,data,headers)                
response = urllib2.urlopen(req)
以上就一句話就完成一個url請求,可是至於boby還有一些本身要添加東西各有不一樣本身添加就好,如jsondunps,jsonload等還有若是你引用random或者time,timeout等等一些本身遍歷判斷異常這些信息輸出到log。框架

至於requests應用,直接r=requests.post/get(uri,data,)若是你要解析url能夠用urlparse對解析遍歷(url.scheme,url.netloc,path,url.params,url.query,url.fragment)參數。dom

以上大概思路寫的過程要添加和本身繼續折騰。工具

我的認爲除非你這方面有必定能力否則這種方法不必定是最好的,工具不少現成的框架,固然本身學習仍是頗有幫助的。post

也可用相似javaNG框架用python實現自動化。本身在實現的過程當中很費事不過效果還好xml的配置文件report生成在excel中。效果還算理想並且相對比寫一推方法看上去要方便,繼續折騰目前實現幾個api才。
學習

相關文章
相關標籤/搜索