引入css
提問:若是想要經過爬蟲程序去爬取」糗百「全站數據新聞數據的話,有幾種實現方法?html
方法一:基於Scrapy框架中的Spider的遞歸爬取進行實現(Request模塊遞歸回調parse方法)。python
方法二:基於CrawlSpider的自動爬取進行實現(更加簡潔和高效)。正則表達式
概要app
詳情框架
CrawlSpider實際上是Spider的一個子類,除了繼承到Spider的特性和功能外,還派生除了其本身獨有的更增強大的特性和功能。其中最顯著的功能就是」LinkExtractors連接提取器「。Spider是全部爬蟲的基類,其設計原則只是爲了爬取start_url列表中網頁,而從爬取到的網頁中提取出的url進行繼續的爬取工做使用CrawlSpider更合適。dom
1.建立scrapy工程:scrapy startproject projectNamescrapy
2.建立爬蟲文件:scrapy genspider -t crawl spiderName www.xxx.comide
--此指令對比之前的指令多了 "-t crawl",表示建立的爬蟲文件是基於CrawlSpider這個類的,而再也不是Spider這個基類。函數
3.觀察生成的爬蟲文件
- 2,3行:導入CrawlSpider相關模塊
- 7行:表示該爬蟲程序是基於CrawlSpider類的
- 12,13,14行:表示爲提取Link規則
- 16行:解析方法
CrawlSpider類和Spider類的最大不一樣是CrawlSpider多了一個rules屬性,其做用是定義」提取動做「。在rules中能夠包含一個或多個Rule對象,在Rule對象中包含了LinkExtractor對象。
3.1 LinkExtractor:顧名思義,連接提取器。
LinkExtractor(
allow=r'Items/',# 知足括號中「正則表達式」的值會被提取,若是爲空,則所有匹配。
deny=xxx, # 知足正則表達式的則不會被提取。
restrict_xpaths=xxx, # 知足xpath表達式的值會被提取
restrict_css=xxx, # 知足css表達式的值會被提取
deny_domains=xxx, # 不會被提取的連接的domains。
)
- 做用:提取response中符合規則的連接。
3.2 Rule : 規則解析器。根據連接提取器中提取到的連接,根據指定規則提取解析器連接網頁中的內容。
Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True)
- 參數介紹:
參數1:指定連接提取器
參數2:指定規則解析器解析數據的規則(回調函數)
參數3:是否將連接提取器繼續做用到連接提取器提取出的連接網頁中。當callback爲None,參數3的默認值爲true。
3.3 rules=( ):指定不一樣規則解析器。一個Rule對象表示一種提取規則。
3.4 CrawlSpider總體爬取流程:
a)爬蟲文件首先根據起始url,獲取該url的網頁內容
b)連接提取器會根據指定提取規則將步驟a中網頁內容中的連接進行提取
c)規則解析器會根據指定解析規則將連接提取器中提取到的連接中的網頁內容根據指定的規則進行解析
d)將解析數據封裝到item中,而後提交給管道進行持久化存儲
4.簡單代碼實戰應用
4.1 爬取糗事百科糗圖板塊的全部頁碼數據
4.2 爬蟲文件:
4.2 item文件:
4.3 管道文件: