python爬蟲框架scrapy一次執行多個爬蟲文件

在scrapy工程,和spider文件夾同一目錄下,建立一個.py文件scrapy import os os.system("scrapy crawl 爬蟲1") os.system("scrapy crawl 爬蟲2") 能夠寫多個。這樣就能按順序執行。
相關文章
相關標籤/搜索