預覽地址:http://23.105.208.123/html
https://github.com/MasakiOvO/...python
requests,BeautifulSoup,redis,djangogit
兩個程序。github
維護 兩個列表 1.已爬用戶 2.未爬用戶
第一個程序的流程:redis
當未爬set不爲空時:執行以下操做: 每次從未爬取列表中取出一個用戶名 根據用戶名,獲取他的關注與粉絲並遍歷,若是用戶既沒在已爬用戶,也沒在未爬用戶 加入未爬用戶列表。
第二個程序的流程django
每次從未爬set中取出一個用戶名,調用接口獲取詳細信息並存入redis hash中
打開某我的的我的主頁,按F12
選擇XHR 而後點擊圖1的關注個人人,和我關注的人,在圖2就能夠看到header和cookie。json
獲取用戶列表Api:api
https://www.zhihu.com/api/v4/...{username}/{type}?include=data[*].answer_count,articles_count,gender,follower_count,is_followed,is_following,badge[?(type=best_answerer)].topics&offset=20&limit=20
username 是用戶名,
type 是類型, 有兩種可選 [followers,followees], followers是粉絲 followees是關注
改變offset的值能夠獲取分頁cookie
獲取我的信息Api:echarts
https://www.zhihu.com/people/...
user_token是用戶名
這個api中 返回的是html頁面,在html頁面中有一個scirpt標籤裏面的內容是json格式的用戶信息,這就很方便了,直接獲取鍵值對 對應的屬性就ok。
F12查看接口,把header和cookie放進requests.get()方法中。
剩下的就很簡單了,不贅述了。
還有不少優化的地方。好比加入中間件,來提高爬蟲的穩定性。對數據進行分類,統計城市分佈。