Python 爬蟲實戰(一):使用 requests 和 BeautifulSoup,咱們使用了 requests 作網絡請求,拿到網頁數據再用 BeautifulSoup 解析,就在前不久,requests 做者 kennethreitz 出了一個新庫 requests-html,Pythonic HTML Parsing for Humans™,它能夠用於解析 HTML 文檔的。requests-html 是基於現有的框架 PyQuery、Requests、lxml 等庫進行了二次封裝,更加方便開發者調用。html
Mac:python
pip3 install requests-html
Windows:git
pip install requests-html
代碼擼多了,讓咱們看會妹紙,爬的網站我選的是 http://www.win4000.com/zt/xinggan.html ,打開網站,觀察到這是個列表,圖片是縮略圖,要想保存圖片到本地,固然須要高清大圖,所以得進入列表詳情,進一步解析,完整代碼以下:github
from requests_html import HTMLSession import requests import time session = HTMLSession() # 解析圖片列表 def get_girl_list(): # 返回一個 response 對象 response = session.get('http://www.win4000.com/zt/xinggan.html') # 單位秒數 content = response.html.find('div.Left_bar', first=True) li_list = content.find('li') for li in li_list: url = li.find('a', first=True).attrs['href'] get_girl_detail(url) # 解析圖片詳細 def get_girl_detail(url): # 返回一個 response 對象 response = session.get(url) # 單位秒數 content = response.html.find('div.scroll-img-cont', first=True) li_list = content.find('li') for li in li_list: img_url = li.find('img', first=True).attrs['data-original'] img_url = img_url[0:img_url.find('_')] + '.jpg' print(img_url + '.jpg') save_image(img_url) # 保持大圖 def save_image(img_url): img_response = requests.get(img_url) t = int(round(time.time() * 1000)) # 毫秒級時間戳 f = open('/Users/wuxiaolong/Desktop/Girl/%d.jpg' % t, 'ab') # 存儲圖片,多媒體文件須要參數b(二進制文件) f.write(img_response.content) # 多媒體存儲content f.close() if __name__ == '__main__': get_girl_list()
代碼就這麼多,是否是感受很簡單啊。bash
說明:網絡
一、requests-html 與 BeautifulSoup 不一樣,能夠直接經過標籤來 find,通常以下:
標籤
標籤.someClass
標籤#someID
標籤[target=_blank]
參數 first 是 True,表示只返回 Element 找到的第一個,更多使用:http://html.python-requests.org/ ;session
二、這裏保存本地路徑 /Users/wuxiaolong/Desktop/Girl/
我寫死了,須要讀者改爲本身的,若是直接是文件名,保存路徑將是項目目錄下。框架
示例所爬網站是分頁的,沒有作,能夠定時循環來爬妹紙哦,有興趣的讀者本身玩下。網站
今天用了一下Requests-HTML庫(Python爬蟲)
個人公衆號:吳小龍同窗,歡迎交流~