抖音爬蟲教程,python爬蟲採集反爬策略

抖音爬蟲教程,python爬蟲採集反爬策略

1、爬蟲與反爬簡介

爬蟲就是咱們利用某種程序代替人工批量讀取、獲取網站上的資料信息。而反爬則是跟爬蟲的對立面,是不遺餘力阻止非人爲的採集網站信息,兩者相生相剋,水火不容,到目前爲止大部分的網站都仍是能夠輕易的爬取資料信息。
爬蟲想要繞過被反的策略就是儘量的讓服務器人你不是機器程序,因此在程序中就要把本身假裝成瀏覽器訪問網站,這能夠極大程度下降被反的機率,那如何作到假裝瀏覽器呢?html

1.可使用請求頭(headers)來掩飾本身,其中最經常使用的就是User Agent(中文名爲用戶代理),是Http協議中的一部分,屬於頭域的組成部分,User Agent也簡稱 UA 。它是一個特殊字符串頭,是一種向訪問網站提供你所使用的瀏覽器類型及版本、操做系統及版本、瀏覽器內核、等信息的標識;表示當前訪問服務器的身份信息,若是同一個身份過於頻繁的訪問服務器會被識別爲機器身份,遭到反爬的打擊,因此須要頻繁的更改User-Agent信息;通常User-Agent字段包括如下幾個信息:瀏覽器標識 (操做系統標識; 加密等級標識; 瀏覽器語言) 渲染引擎標識 版本信息;
2.使用不一樣的User-Agent來規避反爬策略

好比:python

  • Accept:客戶端支持的數據類型,用逗號隔開,是有順序的,分號前面是主類型,分號後是子類型;
  • Accept-Encoding:指定瀏覽器能夠支持的web服務器返回內容壓縮編碼類型;
  • Accept-Language:瀏覽器可接受的天然語言的類型;
  • Connection:設置HTTP鏈接的持久化,一般都是Keep-Alive;
  • Host:服務器的域名或IP地址,若是不是通用端口,還包含該端口號;
  • Referer:指當前請求的URL是在什麼地址引用的;
user_agent_list = [
    "Opera/9.80 (X11; Linux i686; U; hu) Presto/2.9.168 Version/11.50",
    "Opera/9.80 (X11; Linux i686; U; ru) Presto/2.8.131 Version/11.11",
    "Opera/9.80 (X11; Linux i686; U; es-ES) Presto/2.8.131 Version/11.11",
    "Mozilla/5.0 (Windows NT 5.1; U; en; rv:1.8.1) Gecko/20061208 Firefox/5.0 Opera 11.11",
    "Opera/9.80 (X11; Linux x86_64; U; bg) Presto/2.8.131 Version/11.10",
    "Opera/9.80 (Windows NT 6.0; U; en) Presto/2.8.99 Version/11.10",
    "Opera/9.80 (Windows NT 5.1; U; zh-tw) Presto/2.8.131 Version/11.10",
    "Opera/9.80 (Windows NT 6.1; Opera Tablet/15165; U; en) Presto/2.8.149 Version/11.1",
    "Opera/9.80 (X11; Linux x86_64; U; Ubuntu/10.10 (maverick); pl) Presto/2.7.62 Version/11.01",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.97 Safari/537.36",
    "Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:70.0) Gecko/20100101 Firefox/70.0",
    "Opera/9.80 (X11; Linux i686; Ubuntu/14.10) Presto/2.12.388 Version/12.16",
    "Opera/9.80 (Windows NT 6.0) Presto/2.12.388 Version/12.14",
    "Mozilla/5.0 (Windows NT 6.0; rv:2.0) Gecko/20100101 Firefox/4.0 Opera 12.14",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.0) Opera 12.14",
    "Opera/12.80 (Windows NT 5.1; U; en) Presto/2.10.289 Version/12.02",
    "Opera/9.80 (Windows NT 6.1; U; es-ES) Presto/2.9.181 Version/12.00",
    "Opera/9.80 (Windows NT 5.1; U; zh-sg) Presto/2.9.181 Version/12.00",
    "Opera/12.0(Windows NT 5.2;U;en)Presto/22.9.168 Version/12.00",
    "Opera/12.0(Windows NT 5.1;U;en)Presto/22.9.168 Version/12.00",
    "Mozilla/5.0 (Windows NT 5.1) Gecko/20100101 Firefox/14.0 Opera/12.0",
    "Opera/9.80 (Windows NT 6.1; WOW64; U; pt) Presto/2.10.229 Version/11.62",
    "Opera/9.80 (Windows NT 6.0; U; pl) Presto/2.10.229 Version/11.62",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; de) Presto/2.9.168 Version/11.52",
    "Opera/9.80 (Windows NT 5.1; U; en) Presto/2.9.168 Version/11.51",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; de) Opera 11.51",
    "Opera/9.80 (X11; Linux x86_64; U; fr) Presto/2.9.168 Version/11.50",
]
referer_list = ["https://www.test.com/", "https://www.baidu.com/"]

獲取隨機數,即每次採集都會根據隨機數提取隨機用戶代理、引用地址(注:如有多個頁面循環採集,最好採集完單個等待個幾秒鐘再繼續採集,減少服務器的壓力。):web

import random
import re, urllib.request, lxml.html
import requests
import time, random

def get_randam(data):
    return random.randint(0, len(data)-1)
def crawl():
    headers = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
        'Accept-Encoding': 'gzip, deflate',
        'Accept-Language': 'zh-CN,zh;q=0.9',
        'Connection': 'keep-alive',
        'host': 'test.com',
        'Referer': 'https://test.com/',
    }
    random_index = get_randam(user_agent_list)
    random_agent = user_agent_list[random_index]
    headers['User-Agent'] = random_agent
    random_index_01 = get_randam(referer_list)
    random_agent_01 = referer_list[random_index_01]
    headers['Referer'] = random_agent_01
    session = requests.session()
    url = "https://www.test.com/"
    html_data = session.get(url, headers=headers, timeout=180)
    html_data.raise_for_status()
    html_data.encoding = 'utf-8-sig'
    data = html_data.text
    data_doc = lxml.html.document_fromstring(data)
    ...(對網頁數據進行解析、提取、存儲等)
    time.sleep(random.randint(3, 5))
3.使用代理IP來規避反爬:同一個ip大量請求了對方服務器,有更大的可能性會被識別爲爬蟲,ip就有可能被暫時被封。

根據代理ip的匿名程度,代理ip能夠分爲下面四類:瀏覽器

  • 透明代理(Transparent Proxy)Transparent Proxy):透明代理雖然能夠直接「隱藏」你的IP地址,可是仍是能夠查到你是誰。
  • 匿名代理(Anonymous Proxy):匿名代理比透明代理進步了一點:別人只能知道你用了代理,沒法知道你是誰。
  • 混淆代理(Distorting Proxies):與匿名代理相同,若是使用了混淆代理,別人仍是能知道你在用代理,可是會獲得一個假的IP地址,假裝的更逼真
  • 高匿代理(Elite proxy或High Anonymity Proxy):能夠看出來,高匿代理讓別人根本沒法發現你是在用代理,因此是最好的選擇。
    在使用的使用,毫無疑問使用高匿代理效果最好

下面我採用免費的高匿代理IP進行採集:服務器

#代理IP: https://www.xicidaili.com/nn
import requests
proxies = {
"http": "http://117.30.113.248:9999",
"https": "https://120.83.120.157:9999"
}
r=requests.get("https://www.baidu.com", proxies=proxies)
r.raise_for_status()
r.encoding = 'utf-8-sig'
print(r.text)

注意:踩坑經歷,以前誤把proxies裏面的key設置成大寫的HTTP/HTTPS,致使請求不走代理,過了幾個月才發現這個問題,頭皮發麻啊cookie

2、總結

以前也常常寫一些採集亞馬遜的爬蟲,可是採集沒多久就被識別出來是程序爬蟲,會默認跳到一個robotecheck頁面,也就是叫你輸入一個圖片驗證碼,只是爲了驗證究竟是不是人爲在訪問他們的網站。session

  • amazon的防爬蟲機制在只有ip (沒有cookie) 的時候防ip,在有cookie的時候,是防ip+cookie,也即對於一個ip,一個cookie被防了能夠換一個cookie。
  • 有cookie的時候觸發防爬蟲robotcheck的可能性小不少,觸發的機制我的猜想是有疊加效應的,即一次使用同一個ip+header短期內訪問屢次(1秒內訪問至少3次以上)是不會觸發robotecheck的,大概在積累了8到9次的短期多訪問(理由是上面不少實驗都是在第9個請求後開始出現block),纔會激發。而這個忍耐度在有cookie的時候會放得更寬。
    因此咱們在爬取某網站時,最好要作到IP輪詢變換,cookie會話最好也要有,再來就是頻率不要太快太頻,只要控制好個度,我相信被反爬的機率會大大下降。



TiToData:抖音,快手,小紅書數據採集接口,網址: TiToDataapp

相關文章
相關標籤/搜索