使用selenium模擬瀏覽器抓取淘寶商品美食信息

目標

經過Selenium模擬瀏覽器抓取淘寶商品美食信息,並存儲到MongoDB數據庫中。html

流程框架

淘寶頁面比較複雜,含有各類請求參數和加密參數,若是直接請求或者分析Ajax將會很是繁瑣。Selenium是一個自動化測試工具,能夠驅動瀏覽器去完成各類工做,好比模擬點擊、輸入和下拉等多種功能,這樣咱們只需關心操做,不須要關心後臺發生了怎麼樣的請求下面對具體操做步驟進行詳述。
下圖展現了具體的流程框架:python

(1)搜索關鍵字

首先,測試一下咱們的webdriver是否可使用:git

from selenium import webdriver

browser = webdriver.Chrome()

def search():
    browser.get('https://www.taobao.com/')zidong

def main():
    search()

if __name__ == '__main__':    
    main()

運行以上代碼,若是出現下圖所示,則表示webdriver安裝成功:github

接下來讓咱們利用Selenium搜索淘寶美食關鍵字,在搜索以前,咱們應該注意到一件事情,諸如淘寶之類數據量比較大的網站,通常網站加載較慢,這就帶來了一個問題,若是咱們使用Selenium操做頁面元素,就必須等到元素加載完畢。若是不熟悉Selenium的相關方法,能夠到https://www.seleniumhq.org/docs/進行查看,若是你的網速不太理想,能夠到https://selenium- python-zh.readthedocs.io/en/latest/進行參考。web

完成了以上的工做以後,就可使用Selenium搜索淘寶美食關鍵字了,讓咱們打開淘寶網的首頁https://www.taobao.com/,調出控制檯來查看頁面元素,接下來咱們將使用Selenium內置的CSS選擇器選擇頁面元素。
下圖展現瞭如何利用Chrome瀏覽器獲取元素的選擇器:
正則表達式

在此,咱們思考一下一共須要獲取哪幾個元素,讓咱們回想一下手工搜索美食的過程,首先在搜索框輸入「美食」關鍵字,而後點擊按鈕搜索:數據庫

代碼實現以下:瀏覽器

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException

browser = webdriver.Chrome()
wait = WebDriverWait(browser, 10)

def search():
    try:
        browser.get('https://www.taobao.com/')

        # 等待搜索框加載出來
        # 像'presence_of_element_located'之類的動做,能夠到Selenium官方文檔查詢
        input = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, "#q"))
        )
        # 等待搜索按鈕能夠被點擊
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button'))
        )
        input.send_keys('美食')
        submit.click()
    except TimeoutException:
        # 若是出現超時異常,從新執行search()函數
        return search()

def main():
    search()

if __name__ == "__main__":
    main()

運行代碼,若是出現如下狀況,說明運行成功:框架

至此,咱們完成了第一步,搜索關鍵字。ide

(2)分析頁碼並翻頁

在上面咱們搜索美食關鍵字的第一頁,咱們能夠看到關於美食的頁面一共有100頁,如今,咱們須要想辦法獲取這個頁面:

與上面獲取元素的方法相同,咱們使用CSS選擇器獲取頁面元素並返回:

total = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.total"))
        )

而後利用正則表達式提取出有用的元素:

total = int(re.compile('(\d+)').search(total).group(1))

提取到總頁數以後,咱們須要定義一個翻頁函數,循環遍歷1-100頁:

def next_page(page_number):
    try:
        input = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > input"))
        )
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, '#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit'))
        )
        # 清空文本框的值
        input.clear()
        # 給文本框賦值 
        input.send_keys(page_number)
        # 點擊肯定,進行翻頁
        submit.click()
        # 判斷一下當前頁碼與文本框中的頁碼是否一致
        wait.until(
            EC.text_to_be_present_in_element((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > ul > li.item.active > span"), str(page_number))
        )
        get_products()
    except TimeoutException:
        next_page(page_number)

接下來讓咱們測試一下以上代碼:

def main():
    total = search()
    total = int(re.compile('(\d+)').search(total).group(1))
    for i in range(2, total+1):
        next_page(i)
    browser.close()

if __name__ == '__main__':
    main()

運行代碼,能夠發現瀏覽器打開淘寶並從第1頁翻到100頁後自動關閉。

(3)分析提取商品內容

利用PyQuery分析源碼,解析獲得商品列表:

def get_products():
    # 確保商品信息徹底加載完畢
    wait.until(
        EC.presence_of_element_located((By.CSS_SELECTOR, '#mainsrp-itemlist .items .item'))
    )
    # 獲取網頁源碼
    html = browser.page_source
    doc = pq(html)
    items = doc('#mainsrp-itemlist .items .item').items()
    for item in items:
        product = {
            # 獲取img的src屬性
            'image': item.find('.pic .img').attr('src'),
            # 獲取價格
            'price': item.find('.price').text(),
            # 獲取付款人數
            'deal': item.find('.deal-cnt').text()[:-3],
            # 獲取標題
            'title': item.find('.title').text(),
            # 獲取商家
            'shop': item.find('.shop').text(),
            # 獲取所在地
            'location': item.find('.location').text()
        }
        print(product)

獲得商品列表以後,在search()方法(第1頁),next_page()方法(第2-100頁)中分別調用get_products()方法。

能夠看到控制檯輸出打印如下結果:

(4)存儲到MongoDB

讓咱們新建一個config.py文件,文件中包含了MongoDB的URL,數據庫名稱,表名稱:

MONGO_URL = 'localhost'
MONGO_DB = 'taobao'
MONGO_TABLE = 'product'

spider.py中配置存儲到MongoDB相關方法:

from config import *
import pymongo

client = pymongo.MongoClient(MONGO_URL)
db = client[MONGO_DB]

def save_to_mongo(result):
    try:
        if db[MONGO_TABLE].insert(result):
            print('存儲到MONGODB成功', result)
    except Exception:
        print('存儲到MONGODB失敗', result)

而後在get_products()方法中調用save_to_mongo(result)將數據存儲到MongoDB中。

運行代碼,接下來在MongoDB中進行查看:

項目完整代碼已託管到github: https://github.com/panjings/p...
相關文章
相關標籤/搜索