python利用requests自定義user-agent爬取網站

       前一段寫了一個爬取墨跡天氣的小爬蟲,今天突然發現不能用了,因爲是墨跡天氣,反爬機制應該沒有那麼嚴格,應該解決一下user-agent的問題就可以了,寫這篇博客,說一下requests的自定義user-agent的方式。 首先登錄你想要爬取的網站: 我使用的是Chrome,按F12或者右鍵檢查,進入開發者工具,點擊network,可以看到,下面是空的: 然後隨便點擊一下,比如,點擊一下
相關文章
相關標籤/搜索