Python 爬蟲實戰(二):使用 requests-html

Python 爬蟲實戰(一):使用 requests 和 BeautifulSoup,咱們使用了 requests 作網絡請求,拿到網頁數據再用 BeautifulSoup 解析,就在前不久,requests 做者 kennethreitz 出了一個新庫 requests-html,Pythonic HTML Parsing for Humans™,它能夠用於解析 HTML 文檔的。requests-html 是基於現有的框架 PyQuery、Requests、lxml 等庫進行了二次封裝,更加方便開發者調用。html

安裝

Mac:python

pip3 install requests-html

Windows:git

pip install requests-html

實例

代碼擼多了,讓咱們看會妹紙,爬的網站我選的是 http://www.win4000.com/zt/xinggan.html ,打開網站,觀察到這是個列表,圖片是縮略圖,要想保存圖片到本地,固然須要高清大圖,所以得進入列表詳情,進一步解析,完整代碼以下:github

from requests_html import HTMLSession
import requests
import time

session = HTMLSession()


# 解析圖片列表
def get_girl_list():
    # 返回一個 response 對象
    response = session.get('http://www.win4000.com/zt/xinggan.html')  # 單位秒數

    content = response.html.find('div.Left_bar', first=True)

    li_list = content.find('li')

    for li in li_list:
        url = li.find('a', first=True).attrs['href']
        get_girl_detail(url)


# 解析圖片詳細
def get_girl_detail(url):
    # 返回一個 response 對象
    response = session.get(url)  # 單位秒數
    content = response.html.find('div.scroll-img-cont', first=True)
    li_list = content.find('li')
    for li in li_list:
        img_url = li.find('img', first=True).attrs['data-original']
        img_url = img_url[0:img_url.find('_')] + '.jpg'
        print(img_url + '.jpg')
        save_image(img_url)


# 保持大圖
def save_image(img_url):
    img_response = requests.get(img_url)
    t = int(round(time.time() * 1000))  # 毫秒級時間戳
    f = open('/Users/wuxiaolong/Desktop/Girl/%d.jpg' % t, 'ab')  # 存儲圖片,多媒體文件須要參數b(二進制文件)
    f.write(img_response.content)  # 多媒體存儲content
    f.close()


if __name__ == '__main__':
    get_girl_list()

代碼就這麼多,是否是感受很簡單啊。bash

說明:網絡

一、requests-html 與 BeautifulSoup 不一樣,能夠直接經過標籤來 find,通常以下:
標籤
標籤.someClass
標籤#someID
標籤[target=_blank]
參數 first 是 True,表示只返回 Element 找到的第一個,更多使用:http://html.python-requests.org/session

二、這裏保存本地路徑 /Users/wuxiaolong/Desktop/Girl/我寫死了,須要讀者改爲本身的,若是直接是文件名,保存路徑將是項目目錄下。框架

遺留問題

示例所爬網站是分頁的,沒有作,能夠定時循環來爬妹紙哦,有興趣的讀者本身玩下。網站

參考

requests-htmlurl

今天用了一下Requests-HTML庫(Python爬蟲)

公衆號

個人公衆號:吳小龍同窗,歡迎交流~

相關文章
相關標籤/搜索