spider-經過scrapyd網頁管理工具執行scrapy框架

1.首先寫一個scrapy框架爬蟲的項目python

scrapy startproject 項目名稱     # 建立項目
cd 項目名稱
scrapy genspider 爬蟲名稱 爬蟲網址(www.xxxx)       #生成一個爬蟲
scrapy crawl 爬蟲名稱             # 啓動爬蟲

2.部署環境git

pip install scrapyd    
pip install scrapyd-client 

3.在爬蟲項目目錄下輸入命令:scrapyd,已經在本地6800端口運行json

 

 4.在爬蟲根目錄執行:scrapyd-deploy,若是提示不是內部命令,須要到python目錄下scripts下新建一個名爲scrapyd-deploy.bat的文件,最好複製,其中有必要的空格可能會遺漏致使報錯,路徑參考各自的路徑bash

@echo off
"C:\Users\lu\AppData\Local\Programs\Python\Python37-32\python.exe" "C:\Users\lu\AppData\Local\Programs\Python\Python37-32\Scripts\scrapyd-deploy" %*

5.在爬蟲項目根目錄下執行:框架

scrapyd-deploy 爬蟲名稱 -p 爬蟲項目名稱

6.如遇到報錯:Unknown target: 爬蟲名稱,找到該爬蟲項目的scrapy.cfg,做以下修改:curl

[deploy:abckg]      # 加冒號爬蟲名稱
url = http://localhost:6800/     #  去掉井號
project = ABCkg            # 項目名稱

7.從新執行第5條操做:此時提示okscrapy

8.若是打開上圖中連接顯示狀態爲error,能夠直接在6800端口複製:curl http://localhost:6800/schedule.json -d project=default -d spider=somespider在cmd命令行執行,能夠獲得狀態:okide

curl http://localhost:6800/schedule.json -d project=項目名稱 -d spider=爬蟲名稱

    若遇到提示curl不是內部命令,能夠在git bash裏執行。工具

9.此時該項目已經部署到網頁上url

10.點擊jobs,此時scrapy項目已經在運行中,點擊右側log能夠查看爬蟲日誌

 

至此! 完畢!!完美實現經過scrapyd網頁管理工具執行scrapy框架

相關文章
相關標籤/搜索