scrapy學習之路3(爬取的數據保存本地文件或MYSQL)

保存item中的信息到本地文件

1.自定義以json格式保存到本地文件

piplines.py
clipboard.png
再到settings.py中添加使用sql

2.scrapy自帶方式以json格式保存到本地文件

piplines.py
clipboard.png
再到settings.py中添加使用json

保存item中的信息到MySQL(同步)

設計表結構
clipboard.png異步

注意:日期是str類型,要轉化成date類型
clipboard.pngscrapy

piplines.py
clipboard.pngide

補充:settings.py

clipboard.png


保存item中的信息到MySQL(異步twisted)

settings.pyurl

MYSQL_HOST = '127.0.0.1'
MYSQL_DBNAME = 'spider'
MYSQL_USER = 'root'
MYSQL_PASSWORD = '123456'

piplines.pyspa

clipboard.png

去重寫法設計

def do_insert(self, cursor, item):
        my_sql = """
            insert into youwu(url, url_object_id, title, big_image_url) VALUES (%s, %s, %s, %s) on duplicate key update title=values(title), big_image_url=value(big_image_url)
        """
        cursor.execute(my_sql, (item['url'], item['url_object_id'], item['title'], item['big_image_url']))
相關文章
相關標籤/搜索