Scrapyd是部署和運行Scrapy.spider的應用程序。它使您可以使用JSON API部署(上傳)您的項目並控制其spider。html
Scrapyd-client是一個專門用來發布scrapy爬蟲的工具,安裝該程序以後會自動在python目錄\scripts安裝一個名爲scrapyd-deploy的工具node
(其實打開該文件,能夠發現它是一個相似setup.py的python腳本,因此能夠經過python scrapyd-deploy的方式運行)python
pip install scrapyd-client pip install enum-compat pip install w3lib
pip install scrapyd
安裝完成後檢查react
C:\Program Files\Python36\Scripts>dir sc*
驅動器 C 中的卷是 BOOTCAMP
卷的序列號是 D471-4F4D
C:\Program Files\Python36\Scripts 的目錄
2018/05/07 21:20 98,158 scrapy.exe
2018/05/25 21:17 9,901 scrapyd-deploy
2018/05/25 20:37 98,165 scrapyd.exe
4 個文件 216,128 字節
0 個目錄 39,937,785,856 可用字節
scrapyd-deploy內容web
C:\>scrapyd 2018-05-25T20:38:52+0800 [-] Loading c:\program files\python36\lib\site-packages \scrapyd\txapp.py... 2018-05-25T20:38:54+0800 [-] Scrapyd web console available at http://127.0.0.1:6 800/ 2018-05-25T20:38:54+0800 [-] Loaded. 2018-05-25T20:38:54+0800 [twisted.application.app.AppLogger#info] twistd 18.4.0 (c:\program files\python36\python.exe 3.6.1) starting up. 2018-05-25T20:38:54+0800 [twisted.application.app.AppLogger#info] reactor class: twisted.internet.selectreactor.SelectReactor. 2018-05-25T20:38:54+0800 [-] Site starting on 6800 2018-05-25T20:38:54+0800 [twisted.web.server.Site#info] Starting factory <twiste d.web.server.Site object at 0x0000000004BB8DA0> 2018-05-25T20:38:54+0800 [Launcher] Scrapyd 1.2.0 started: max_proc=32, runner=' scrapyd.runner'
C:\chinaarea 的目錄 2018/05/25 21:19 <DIR> . 2018/05/25 21:19 <DIR> .. 2018/05/24 21:23 <DIR> .idea 2018/05/25 21:19 <DIR> build 2018/05/25 21:16 <DIR> chinaarea 2018/05/25 21:19 <DIR> project.egg-info 2018/05/23 20:38 74 README.md 2018/05/25 21:02 264 scrapy.cfg 2018/05/25 20:37 9,904 scrapyd-deploy 2018/05/25 21:19 266 setup.py 4 個文件 10,508 字節 6 個目錄 39,973,642,240 可用字節
首先去掉url前的註釋符號,這裏url就是你的scrapyd服務器的網址。json
其次,deploy:100表示把爬蟲發佈到名爲100的爬蟲服務器上。服務器
這個名叫target名字能夠隨意起,通常狀況用在須要同時發佈爬蟲到多個目標服務器時,能夠經過指定名字的方式發佈到指定服務器。app
其次,default=ccpmess.settings 中 ccpmess也是能夠改的,貌似沒啥用,默認仍是用工程名字。curl
關鍵是scrapyd-deploy 所在目錄,具體其實能夠讀下scrapyd-deploy 的代碼。scrapy
# Automatically created by: scrapy startproject # # For more information about the [deploy] section see: # https://scrapyd.readthedocs.io/en/latest/deploy.html [settings] default = chinaarea.settings [deploy:100] url = http://localhost:6800/ project = chinaarea
檢查scrapy配置是否正確。
$python scrapyd-deploy -l
100 http://localhost:6800/
scrapyd-deploy <target> -p <project> --version <version>
target就是前面配置文件裏deploy後面的的target名字。
project 能夠隨意定義,跟爬蟲的工程名字無關。
version自定義版本號,不寫的話默認爲當前時間戳。
注意,爬蟲目錄下不要放無關的py文件,放無關的py文件會致使發佈失敗,可是當爬蟲發佈成功後,會在當前目錄生成一個setup.py文件,能夠刪除掉。
C:\chinaarea>python scrapyd-deploy 100 -p chinaarea --version ver20180525 Packing version ver20180525 Deploying to project "chinaarea" in http://localhost:6800/addversion.json Server response (200): {"node_name": "jingjing-PC", "status": "ok", "project": "chinaarea", "version": "ver20180525", "spiders": 1}
下載地址:https://curl.haxx.se/download.html
根據電腦系統下載適合的版本
下載完成後會看到curl.exe文件
設置環境變量
測試配置
C:\curl\bin>curl localhost:6800 <html> <head><title>Scrapyd</title></head> <body> <h1>Scrapyd</h1> <p>Available projects: <b>chinaarea</b></p> <ul> <li><a href="/jobs">Jobs</a></li> <li><a href="/logs/">Logs</a></li>
C:\curl\bin>curl http://localhost:6800/schedule.json -d project=chinaarea -d spider=airs {"node_name": "jingjing-PC", "status": "ok", "jobid": "5895b858603611e8b3e160f81 dad89ef"}
C:\curl\bin>curl http://127.0.0.1:6800/delproject.json -d project=chinaarea {"node_name": "jingjing-PC", "status": "ok"}
# -*- coding: utf-8 -*- import requests import json baseUrl ='http://127.0.0.1:6800/' daemUrl ='http://127.0.0.1:6800/daemonstatus.json' listproUrl ='http://127.0.0.1:6800/listprojects.json' listspdUrl ='http://127.0.0.1:6800/listspiders.json?project=%s' listspdvUrl= 'http://127.0.0.1:6800/listversions.json?project=%s' listjobUrl ='http://127.0.0.1:6800/listjobs.json?project=%s' delspdvUrl= 'http://127.0.0.1:6800/delversion.json' #http://127.0.0.1:6800/daemonstatus.json #查看scrapyd服務器運行狀態 r= requests.get(daemUrl) print '1.stats :\n %s \n\n' %r.text #http://127.0.0.1:6800/listprojects.json #獲取scrapyd服務器上已經發布的工程列表 r= requests.get(listproUrl) print '1.1.listprojects : [%s]\n\n' %r.text if len(json.loads(r.text)["projects"])>0 : project = json.loads(r.text)["projects"][0] #http://127.0.0.1:6800/listspiders.json?project=myproject #獲取scrapyd服務器上名爲myproject的工程下的爬蟲清單 listspd=listspd % project r= requests.get(listspdUrl) print '2.listspiders : [%s]\n\n' %r.text if json.loads(r.text).has_key("spiders")>0 : spider =json.loads(r.text)["spiders"][0] #http://127.0.0.1:6800/listversions.json?project=myproject ##獲取scrapyd服務器上名爲myproject的工程下的各爬蟲的版本 listspdvUrl=listspdvUrl % project r = requests.get(listspdvUrl) print '3.listversions : [%s]\n\n' %rtext if len(json.loads(r.text)["versions"])>0 : version = json.loads(r.text)["versions"][0] #http://127.0.0.1:6800/listjobs.json?project=myproject #獲取scrapyd服務器上的全部任務清單,包括已結束,正在運行的,準備啓動的。 listjobUrl=listjobUrl % proName r=requests.get(listjobUrl) print '4.listjobs : [%s]\n\n' %r.text #schedule.json #http://127.0.0.1:6800/schedule.json -d project=myproject -d spider=myspider #啓動scrapyd服務器上myproject工程下的myspider爬蟲,使myspider馬上開始運行,注意必須以post方式 schUrl = baseurl + 'schedule.json' dictdata ={ "project":project,"spider":spider} r= reqeusts.post(schUrl, json= dictdata) print '5.1.delversion : [%s]\n\n' %r.text #http://127.0.0.1:6800/delversion.json -d project=myproject -d version=r99' #刪除scrapyd服務器上myproject的工程下的版本名爲version的爬蟲,注意必須以post方式 delverUrl = baseurl + 'delversion.json' dictdata={"project":project ,"version": version } r= reqeusts.post(delverUrl, json= dictdata) print '6.1.delversion : [%s]\n\n' %r.text #http://127.0.0.1:6800/delproject.json -d project=myproject #刪除scrapyd服務器上myproject工程,注意該命令會自動刪除該工程下全部的spider,注意必須以post方式 delProUrl = baseurl + 'delproject.json' dictdata={"project":project } r= reqeusts.post(delverUrl, json= dictdata) print '6.2.delproject : [%s]\n\n' %r.text
1、獲取狀態 http://127.0.0.1:6800/daemonstatus.json 2、獲取項目列表 http://127.0.0.1:6800/listprojects.json 3、獲取項目下已發佈的爬蟲列表 http://127.0.0.1:6800/listspiders.json?project=myproject 4、獲取項目下已發佈的爬蟲版本列表 http://127.0.0.1:6800/listversions.json?project=myproject 5、獲取爬蟲運行狀態 http://127.0.0.1:6800/listjobs.json?project=myproject 6、啓動服務器上某一爬蟲(必須是已發佈到服務器的爬蟲) http://localhost:6800/schedule.json (post方式,data={"project":myproject,"spider":myspider}) 7、刪除某一版本爬蟲 http://127.0.0.1:6800/delversion.json (post方式,data={"project":myproject,"version":myversion}) 8、刪除某一工程,包括該工程下的各版本爬蟲 http://127.0.0.1:6800/delproject.json(post方式,data={"project":myproject})
到此,基於scrapyd的爬蟲發佈教程就寫完了。
可能有人會說,我直接用scrapy cwal 命令也能夠執行爬蟲,我的理解用scrapyd服務器管理爬蟲,至少有如下幾個優點:
一、能夠避免爬蟲源碼被看到。
二、有版本控制。
三、能夠遠程啓動、中止、刪除,正是由於這一點,因此scrapyd也是分佈式爬蟲的解決方案之一