2、Python爬蟲-urllib庫數據挖掘

使用urllib庫數據挖掘

第一個爬蟲程序

import re from urllib import request    #直接使用request中的方法 #import urllib.request #需使用urllib.request.方法
 url=r"http://www.baidu.com/" #'r'去除轉義字符

#2.1.數據挖掘 #發送請求,獲取響應信息,request自動建立請求對象,不方便使用,信息以二進制輸出
response1=request.urlopen(url).read().decode() #解碼

#建立自定義請求
req=request.Request(url) response2=request.urlopen(req).read().decode() #解碼

#2.2.數據清洗
pat=r"<title>(.*?)</title>"    #正則表達式
data1=re.findall(pat,response1)    #返回一個列表
data2=re.findall(pat,response2)    #返回一個列表

print(data1)                #['百度一下,你就知道']
print(data2)                #['百度一下,你就知道']

  自動建立請求對象:只封裝了url信息,自動生成其餘信息android

  自定義請求對象:能夠自定義其餘信息,對抗反扒機制正則表達式

    經過方法request.Request()建立自定義請求對象,再用request.urlopen()打開對象瀏覽器

假裝瀏覽器

  反爬蟲機制1:判斷用戶是不是瀏覽器訪問服務器

  是不是瀏覽器經過請求包頭的User-Agent進行判斷,下面是谷歌瀏覽器的User-Agentcookie

  User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36
  
#假裝瀏覽器爬蟲
import re from urllib import request    #直接使用request中的方法
 url=r"http://www.baidu.com/" #'r'去除轉義字符 #經過字典構造請求頭信息
header={ "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64)\ AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163\ Safari/537.36" }#['百度一下,你就知道'] 谷歌瀏覽器

#建立自定義請求
req=request.Request(url,headers=header) #傳入url和請求頭
response=request.urlopen(req).read().decode() #解碼

#2.2.數據清洗
pat=r"<title>(.*?)</title>"    #正則表達式
data=re.findall(pat,response)    #返回一個列表

print(data)                #['百度一下,你就知道']

  反爬蟲機制2:判斷用戶是否一直使用同一個瀏覽器進行重複訪問網絡

  添加多個UserAgent進行訪問:session

#假裝瀏覽器
import re                     #正則表達式
from urllib import request    #直接使用request中的方法
import random                #隨機模塊
 url=r"http://www.baidu.com/" #'r'去除轉義字符 #經過字典構造請求頭信息
agent1={ "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64)\ AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163\ Safari/537.36" }#['百度一下,你就知道'] 谷歌瀏覽器
agent2={ "User-Agent":"Mozilla/5.0 (Linux; U; Android 8.1.0; \ zh-cn; BLA-AL00 Build/HUAWEIBLA-AL00) AppleWebKit/537.36\ (KHTML, like Gecko) Version/4.0 Chrome/57.0.2987.132 \ MQQBrowser/8.9 Mobile Safari/537.36" }#['百度一下'] 手機瀏覽器
agent3={ "User-Agent":"Mozilla/5.0 (Linux; U; Android 8.0.0; zh-CN; \ MHA-AL00 Build/HUAWEIMHA-AL00) AppleWebKit/537.36 \ (KHTML, like Gecko) Version/4.0 Chrome/40.0.2214.89\ UCBrowser/11.6.4.950 UWS/2.11.1.50 Mobile Safari/537.36 \ AliApp(DingTalk/4.5.8) com.alibaba.android.rimet/10380049 Channel/227200 language/zh-CN" }#['百度一下'] 手機瀏覽器
 agentList=[agent1,agent2,agent3] agent=random.choice(agentList) print(agent) #建立自定義請求
req=request.Request(url,headers=agent)             #傳入url和請求頭
response=request.urlopen(req).read().decode()     #解碼

#2.2.數據清洗
pat=r"<title>(.*?)</title>"        #正則表達式
data=re.findall(pat,response)    #返回一個列表

print(data)

自定義Opener

  咱們以前一直都在使用的urlopen(),他是一個特殊的opener(也就是模塊幫咱們構建好的)。dom

  可是基本的urlopen()方法不支持代理、cookie等其餘的HTTP/HTTPS高級功能。因此要支持這些功能:post

  經過request.build_opener()方法建立自定義opener對象;使用自定義的opener對象,調用open()方法發送請求;網站

  若是程序裏的全部請求都使用自定義的opener,可使用request.install_opener()將自定義的opener對象定義爲全局opener,表示以後調用的urlopen,都將使用這個自定義的opener。

  構建自定義的opener需傳入處理器對象,通request.HTTPHandler()、request.ProxyHandler()等方法建立。

  代理:使用其餘的ip進行訪問服務器

  cookie:客戶信息

  HTTP/HTTPS:網絡傳輸協議(明文/加密)

#建立自定義opener
from urllib import request #構建HTTP處理器對象(專門處理HTTP請求的對象)
http_header=request.HTTPHandler() #建立自定義opener
opener=request.build_opener(http_header) #建立自定義請求對象
req=request.Request("http://www.baidu.com/") #發送請求,獲取響應,使用一次 # response=opener.open(req).read().decode() # print(response)


#把自定義的opener設置爲全局,這樣用urlopen發送的請求默認使用自定義的opener
request.install_opener(opener) response2=request.urlopen(req).read().decode() print(response2)

使用代理IP

  反爬蟲機制3:判斷請求來源的ip地址

  使用代理ip進行訪問

#代理ip
from urllib import request import random #多個代理ip
proxylist=[ {"http":"182.111.64.7:41766"}, #key:協議 value:ip+port
    {"http":"182.111.64.7:41766"}, {"http":"101.248.64.82:80"}, ] proxy=random.choice(proxylist) #構建代理處理器對象
proxyHandler=request.ProxyHandler(proxy) #建立自定義opener
opener=request.build_opener(proxyHandler) #建立請求對象
req=request.Request("http://www.baidu.com") #發生請求,返回相應
response=opener.open(req).read().decode() print(response)

 處理get請求

  請求信息包含在url裏面。

#2.11.處理get請求

#在百度上搜索"北京" from urllib import request import urllib #https://www.baidu.com/s?wd=%E5%8C%97%E4%BA%AC #url編碼 wd={"wd":"北京"} url="http://www.baidu.com/s?" #構造url編碼 wdd=urllib.parse.urlencode(wd) url=url+wdd req=request.Request(url) response=request.urlopen(req).read().decode() print(response)

 處理post請求

  請求信息不在url裏面,而是在From Data(表單數據)中。

   

   代碼請看有道翻譯爬蟲實現

響應

  響應分不少種,但咱們無需知道響應是什麼類型,咱們只須要響應中是否可以提取到咱們所需的信息。

異常處理

  爲了防止出現異常時程序死掉,就須要進行異常處理

from urllib import request list1=[ "http://www.baidu.com", "http://www.baidu.com", "http://www.wdnmd.com", "http://www.baidu.com", "http://www.baidu.com", ] i=0 for url in list1: i=i+1
    try: request.urlopen(url) except Exception as e: print("",i,"次請求失敗",e) continue
    print("",i,"次請求完成")

cookie模擬登陸

  cookie(存儲再用戶本地終端上的數據),是某些網站爲了辨別用戶身份,進行session跟蹤而儲存在用戶本地終端上的數據(一般通過加密),由用戶客戶端計算機暫時或永久保存的信息。

from urllib import request url="http://www.baidu.com"

#這cookie也太長了吧!
header={ "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) \ AppleWebKit/537.36 (KHTML, like Gecko) \ Chrome/81.0.4044.122 Safari/537.36", "Cookie":"BAIDUID=B75AA8C5F67A4BA4496FDAD7D121A9AE:FG=1; \ BIDUPSID=B75AA8C5F67A4BA4496FDAD7D121A9AE; PSTM=1561710602;\ BDUSS=khaRENTZWhWS0I3b1lQRDVmS3FJfnQ0ZGdPa0ZNckRNWi1oSmdJO\ DhYOVR2WFZlSVFBQUFBJCQAAAAAAAAAAAEAAADVDV8\ YwbrIqNCkAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA\ AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAFMwTl5TME5eZ\ ; H_WISE_SIDS=139912_142696_144498_143879_144884_141875_139043_\ 141744_144419_144135_144470_144482_131247_137745_138883_\ 141941_127969_144338_140593_144249_140350_144608_143923_\ 131423_144277_114553_142207_144899_107313_139909_144954_\ 143478_144966_142426_142911_140311_143549_144238_143862_\ 110085; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; \ yjs_js_security_passport=cc7193919e4c28b6fad4dae83d92a4bd694e9d90_1588053148_js;\ delPer=0; PSINO=6; BDRCVFR[feWj1Vr5u3D]=I67x6TjHwwYf0; \ H_PS_PSSID=1461_21090_31254_31424_31341_30905_30824_26350_31163_31475_22158; \ PHPSESSID=0hmqvu0d6o9tneinc0l1asnj91; Hm_lvt_4010fd5075fcfe46a16ec4cb65e02f04=1588059785;\ Hm_lpvt_4010fd5075fcfe46a16ec4cb65e02f04=1588059785" }#谷歌瀏覽器
 req=request.Request(url,headers=header) response=request.urlopen(req) print(response.read().decode())
相關文章
相關標籤/搜索