Scrapy啓用下載中間件時無法寫入pipeline

問題描述 使用Scrapy在爬取百度的過程中,在下載中間件中加入Selenium返回加載好的頁面並解析,但是使用pipeline無法把爬到的數據寫入文件 探索過程 已經設置pipelines.py文件 已經在settings.py中打開管道 spider文件中的處理函數parse()寫了返回語句,控制檯可以正常打印爬到的數據 到此懷疑是項目框架出了問題,新建一個Scrapy project,寫一個
相關文章
相關標籤/搜索