scrapyd部署成功但項目無法運行的問題

問題描述 用scrapyd部署爬蟲項目,在命令行部署成功 但是在瀏覽器中輸入127.0.0.1:6800進入scrapyd可視化界面,然後進入jobs中,發現竟然沒有剛纔上傳的項目 進入spiderkeeper進行打包部署,項目一直阻塞,不運行 這個問題一直查了兩天百度,最後自己去scrapyd運行的命令行,往上翻日誌,其中有一條error,說的是缺少pywin32模塊,然後就安裝了這個模塊。 重
相關文章
相關標籤/搜索