Scrapy生成的調試信息很是有用,可是一般太囉嗦,你能夠在Scrapy項目中的setting.py中設置日誌顯示等級:python
LOG_LEVEL = 'ERROR'網絡
日誌級別scrapy
Scrapy日誌有五種等級,按照範圍遞增順序排列以下:(注意《Python網絡數據採集》書中這裏有錯)ide
若是日誌層級設置爲ERROR,那麼只有CRITICAL和ERROR日誌會顯示出來。spa
若是日誌層級設置爲DEBUG,那麼全部信息都會顯示出來,其它同理。命令行
設置log級別調試
能夠經過終端選項 -loglevel/-L 或 LOG_LEVEL 來設置log級別。日誌
記錄信息code
下面給出如何使用WARING級別來記錄信息對象
在Spider中添加log
在spider中添加log的推薦方式是使用Spider的 log() 方法。該方法會自動在調用 scrapy.log.start() 時賦值 spider 參數。
其它的參數則直接傳遞給 msg() 方法
scrapy.log模塊
scrapy.log.start(logfile=None, loglevel=None, logstdout=None)
啓動log功能。該方法必須在記錄任何信息以前被調用。不然調用前的信息將會丟失。
參數:
scrapy.log.msg(message,level=INFO,spider=None)
記錄信息
參數:
默認狀況下日誌顯示在終端,但也能夠經過下面的命令輸出到一個獨立的文件中:
$scrapy crawl spiderName -s LOG_FILE=spider.log (注意這裏等號兩邊沒有空格)
或者上面提到的 start() 中參數指定輸出文件位置。
若是目錄中沒有spider.log 那麼運行程序會建立一個新文件,而後把全部的日誌都保存到裏面。
若是已經存在,會在原文後面追加新的日誌內容。