Spider Middleware是介入到Scrapy的Spider處理機制的鉤子框架。數據庫
當Downloader生成Response以後,Response會被髮送給Spider,在發送給Spider以前,Response會首先通過Spider Middleware處理,當Spider處理生成Item和Request以後,Item Request還會通過Spider Middleware的處理。json
Spider Middleware有三個做用:app
須要說明的是,Scrapy其實已經提供了許多Spider Middleware,它們被SPIDER_MIDDLEWARES_BASE這個變盤所定義。框架
SPIDER_MIDDLEWARES_BASE變量的內容以下:scrapy
{ 'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware':50, 'scrapy spidermiddlewares offsite Of site iddleware':500, 'scrapy.spidermiddlewares.referer.RefererMiddleware':700, 'scrapy.spidermiddlewares.urllength.UrllengthMiddleware':800, 'scrapy.spidermiddlewares.depth.DepthMiddleware':900, }
和Downloader Middleware同樣,Spider Middleware首先加入到SPIDER_MIDDLEWARES設置中,該設置會和Scrapy中SPIDER_MIDDLEWARES_BASE定義的Spider Middleware合併。而後根據鍵值的數字優先級排序,獲得一個有序列表。第一Middleware是最靠近引擎的,最後一個Middleware是最靠近Spide的。ide
Scrapy內置的Spider Middleware爲Scrapy提供了基礎的功能。若是咱們想要擴展其功能,只須要實現某幾個方法便可。url
每一個Spider Middleware都定義瞭如下一個或多個方法的類,核心方法有以下4個。spa
只須要實現其中一個方法就能夠定義一個Spider Middleware。code
當Response被Spider Middleware處理時,process_spider_input()方法被調用。orm
process_spider_input()方法的參數有以下兩個:
response,是Response對象,即被處理的Response。
spider,是Spider對象,即該Response對應的Spider。
process_spider_input()應該返回None或者拋出一個異常。
若是它返回None,Scrapy將會繼續處理該Response,調用全部其餘的Spider Middleware,直到Spider處理該Response。
若是它拋出一個異常,Scrapy將不會調用任何其餘Spider Middleware的process_spider_input()方法,而調用Request的errback()方法。errback的輸出將會被從新輸入到中間件中,使用process_spider_output()方法來處理,當其拋出異常時則調用process_spider_exception()來處理。
當Spider處理Response返回結果時,process_spider_output()方法被調用。process_spider_output()方法的參數有以下三個:
response,是Response對象,即生成該輸出的Response。
result,包含Request或Item對象的可迭代對象,即Spider返回的結果。
spider,是Spider對象,即其結果對應的Spider。
process_spider_output()必須返回包含Request或Item對象的可迭代對象。
當Spider或Spider Middleware的process_spider_input()方法拋出異常時,process_spider_exception()方法被調用。
process_spider_exception()方法的參數有以下三個:
response,是Response對象,即異常被拋出時被處理的Response。
exception,是Exception對象,即被拋出的異常。
spider,是Spider對象,即拋出該異常的Spider。
process_spider_exception()必需要麼返回None,要麼返回一個包含Response或Item對象的可迭代對象。
若是它返問None,Scrapy將繼續處理該異常,調用其餘Spider Middleware中的process_spider_exception()方法,直到全部Spider Middleware都被調用。
若是它返回一個可迭代對象,Spider Middleware的process_spider_output()方法被調用,其餘的process_spider_exception()不會被調用。
process_start_requests()方法以Spider啓動的Request爲參數被調用,執行的過程相似於process_spider_output(),只不過它沒有相關聯的Response而且必須返回Request。
proces s_start_requests()方法的參數有以下兩個:
start_requests,是包含Request的可迭代對象,即Start Requests。
spider,是Spider對象,即Start Requests所屬的Spider。
process_start_requests()必須返回另外一個包含Request對象的可迭代對象。
Item Pipeline是項目管道。
Item Pipeline的調用發生在Spider產生Item以後。當Spider解析完Response以後,Item就會傳遞到Item Pipeline,被定義的Item Pipeline組件會依次調用,完成一連串的處理過程,好比數據清洗、存儲等。
Item Pipeline主要功能有四點:
清理HTML數據。
驗證爬取數據,檢查爬取字段。
查重並丟棄重複內容。
將爬取結果保存到數據庫。
咱們能夠自定義Item Pipeline,只須要實現指定的方法,其中必需要實現的一個方法是: process_item(item,spider)。
另外還有以下幾個比較實用的方法:
open_spider(spider)
close_spider(spider)
from_crawler(cls,crawler)
process_item()是必需要實現的方法,被定義的Item Pipeline會默認調用這個方法對Item進行處理。好比,咱們能夠進行數據處理或者將數據寫入到數據庫等操做。它必須返回Item類型的值或者拋出一個DropItem異常。
process_itern()方法的參數有兩個:
item,是Item對象,即被處理的Item。
Spider,是Spider對象,即生成該Item Spider。
process_item()方法的返回類型概括以下:
若是它返回的是Item對象,那麼此Item會被低優先級的Item Pipeline的process_item()方法處理,直到全部的方法被調用完畢。
若是它拋出的是DropItem異常,那麼此Item會被丟棄,再也不進行處理。
open_spider()方法是在Spider開啓的時候被自動調用的。在這裏咱們能夠作一些初始化操做,如開啓數據庫鏈接等。其中,參數spider就是被開啓的Spider對象。
close_spider()方法是在Spider關閉的時候自動調用的。在這裏咱們能夠作一些收尾工做,如 關閉數據庫鏈接等。其中,參數spider就是被關閉的Spider對象。
from_crawler()方法是一個類方法,用@classmethod標識,是一種依賴注入的方式。它的參數是crawler,經過crawler對象,咱們能夠拿到Scrapy的全部核心組件,如全局配置的每一個信息,而後建立Pipeline實例。參數cls就是Class,最後返回一個Class實例。
調整price那些不包含增值稅(price_excludes_vat屬性)的項目的屬性,並刪除那些不包含價格的項目:
from scrapy.exceptions import DropItem class PricePipeline(object): vat_factor = 1.15 def process_item(self, item, spider): if item.get('price'): if item.get('price_excludes_vat'): item['price'] = item['price'] * self.vat_factor return item else: raise DropItem("Missing price in %s" % item)
將全部已刪除的項目存儲到一個items.json文件中,每一行包含一個以JSON格式序列化的項目:
import json class JsonWriterPipeline(object): def open_spider(self, spider): self.file = open('items.json', 'w') def close_spider(self, spider): self.file.close() def process_item(self, item, spider): line = json.dumps(dict(item)) + "\n" self.file.write(line) return item
在這個例子中,咱們將使用pymongo將項目寫入MongoDB。MongoDB地址和數據庫名稱在Scrapy設置中指定;MongoDB集合以item類命名。
import pymongo class MongoPipeline(object): collection_name = 'scrapy_items' def __init__(self, mongo_uri, mongo_db): self.mongo_uri = mongo_uri self.mongo_db = mongo_db @classmethod def from_crawler(cls, crawler): return cls( mongo_uri=crawler.settings.get('MONGO_URI'), mongo_db=crawler.settings.get('MONGO_DATABASE', 'items') ) def open_spider(self, spider): self.client = pymongo.MongoClient(self.mongo_uri) self.db = self.client[self.mongo_db] def close_spider(self, spider): self.client.close() def process_item(self, item, spider): self.db[self.collection_name].insert_one(dict(item)) return item
從process_item()方法返回Deferred。它使用Splash渲染項目URL的屏幕截圖。Pipeline向本地運行的Splash示例發出請求。下載請求並延遲迴調激活後,它會將項目保存到文件並將文件名添加到項目中。
import scrapy import hashlib from urllib.parse import quote class ScreenshotPipeline(object): """Pipeline that uses Splash to render screenshot of every Scrapy item.""" SPLASH_URL = "http://localhost:8050/render.png?url={}" def process_item(self, item, spider): encoded_item_url = quote(item["url"]) screenshot_url = self.SPLASH_URL.format(encoded_item_url) request = scrapy.Request(screenshot_url) dfd = spider.crawler.engine.download(request, spider) dfd.addBoth(self.return_item, item) return dfd def return_item(self, response, item): if response.status != 200: # Error happened, return item. return item # Save screenshot to file, filename will be hash of url. url = item["url"] url_hash = hashlib.md5(url.encode("utf8")).hexdigest() filename = "{}.png".format(url_hash) with open(filename, "wb") as f: f.write(response.body) # Store filename in item. item["screenshot_filename"] = filename return item
一個過濾器,用於查找重複項目,並刪除已處理的項目。假設咱們的項目具備惟一ID,但咱們的spider會返回具備相同ID的多個項目:
from scrapy.exceptions import DropItem class DuplicatesPipeline(object): def __init__(self): self.ids_seen = set() def process_item(self, item, spider): if item['id'] in self.ids_seen: raise DropItem("Duplicate item found: %s" % item) else: self.ids_seen.add(item['id']) return ite