1.首先寫一個scrapy框架爬蟲的項目python
scrapy startproject 項目名稱 # 建立項目 cd 項目名稱 scrapy genspider 爬蟲名稱 爬蟲網址(www.xxxx) #生成一個爬蟲 scrapy crawl 爬蟲名稱 # 啓動爬蟲
2.部署環境git
pip install scrapyd
pip install scrapyd-client
3.在爬蟲項目目錄下輸入命令:scrapyd,已經在本地6800端口運行json
4.在爬蟲根目錄執行:scrapyd-deploy,若是提示不是內部命令,須要到python目錄下scripts下新建一個名爲scrapyd-deploy.bat的文件,最好複製,其中有必要的空格可能會遺漏致使報錯,路徑參考各自的路徑bash
@echo off "C:\Users\lu\AppData\Local\Programs\Python\Python37-32\python.exe" "C:\Users\lu\AppData\Local\Programs\Python\Python37-32\Scripts\scrapyd-deploy" %*
5.在爬蟲項目根目錄下執行:框架
scrapyd-deploy 爬蟲名稱 -p 爬蟲項目名稱
6.如遇到報錯:Unknown target: 爬蟲名稱,找到該爬蟲項目的scrapy.cfg,做以下修改:curl
[deploy:abckg] # 加冒號爬蟲名稱 url = http://localhost:6800/ # 去掉井號 project = ABCkg # 項目名稱
7.從新執行第5條操做:此時提示okscrapy
8.若是打開上圖中連接顯示狀態爲error,能夠直接在6800端口複製:curl http://localhost:6800/schedule.json -d project=default -d spider=somespider在cmd命令行執行,能夠獲得狀態:okide
curl http://localhost:6800/schedule.json -d project=項目名稱 -d spider=爬蟲名稱
若遇到提示curl不是內部命令,能夠在git bash裏執行。工具
9.此時該項目已經部署到網頁上url
10.點擊jobs,此時scrapy項目已經在運行中,點擊右側log能夠查看爬蟲日誌
至此! 完畢!!完美實現經過scrapyd網頁管理工具執行scrapy框架