bind_address = 0.0.0.0
,而後重啓 Scrapyd service。pip install scrapydweb
scrapydweb
啓動 ScrapydWeb(首次啓動將自動在當前工做目錄生成配置文件)。ENABLE_AUTH = True USERNAME = 'username' PASSWORD = 'password'
SCRAPYD_SERVERS = [ '127.0.0.1', # 'username:password@localhost:6801#group', ('username', 'password', 'localhost', '6801', 'group'), ]
scrapydweb
重啓 ScrapydWeb。經過瀏覽器訪問並登陸 http://127.0.0.1:5000。html
SCRAPY_PROJECTS_DIR
指定 Scrapy 項目開發目錄,ScrapydWeb 將自動列出該路徑下的全部項目,默認選定最新編輯的項目,選擇項目後便可自動打包和部署指定項目。
SCRAPYD_LOGS_DIR
和 ENABLE_LOGPARSER
,則啓動 ScrapydWeb 時將自動運行 LogParser,該子進程經過定時增量式解析指定目錄下的 Scrapy 日誌文件以加快 Stats 頁面的生成,避免因請求原始日誌文件而佔用大量內存和網絡資源。
經過輪詢子進程在後臺定時模擬訪問 Stats 頁面,ScrapydWeb 將在知足特定觸發器時根據設定自動中止爬蟲任務併發送通知郵件,郵件正文包含當前爬蟲任務的統計信息。python
SMTP_SERVER = 'smtp.qq.com' SMTP_PORT = 465 SMTP_OVER_SSL = True SMTP_CONNECTION_TIMEOUT = 10 EMAIL_USERNAME = '' # defaults to FROM_ADDR EMAIL_PASSWORD = 'password' FROM_ADDR = 'username@qq.com' TO_ADDRS = [FROM_ADDR]
EMAIL_WORKING_DAYS = [1, 2, 3, 4, 5] EMAIL_WORKING_HOURS = [9, 12, 17] ON_JOB_RUNNING_INTERVAL = 3600 ON_JOB_FINISHED = True
LOG_CRITICAL_THRESHOLD = 3 LOG_CRITICAL_TRIGGER_STOP = True LOG_CRITICAL_TRIGGER_FORCESTOP = False # ... LOG_IGNORE_TRIGGER_FORCESTOP = False
以上示例表明:當日志中出現3條或以上的 critical 級別的 log 時,ScrapydWeb 將自動中止當前任務,若是當前時間在郵件工做時間內,則同時發送通知郵件。git
my8100/scrapydwebgithub