如何知道一個網站是動態加載的數據? 用火狐或者谷歌瀏覽器 打開你網頁,右鍵查看頁面源代碼,ctrl +F 查詢輸入內容,源代碼裏面並無這個值,說明是動態加載數據。javascript
序號 | 框架名稱 | 描述 | 官網 |
---|---|---|---|
1 | Scrapy | Scrapy是一個爲了爬取網站數據,提取結構性數據而編寫的應用框架。 能夠應用在包括數據挖掘,信息處理或存儲歷史數據等一系列的程序中。用這個框架能夠輕鬆爬下來如亞馬遜商品信息之類的數據。 | scrapy.org/ |
2 | PySpider | pyspider 是一個用python實現的功能強大的網絡爬蟲系統,能在瀏覽器界面上進行腳本的編寫,功能的調度和爬取結果的實時查看,後端使用經常使用的數據庫進行爬取結果的存儲,還能定時設置任務與任務優先級等。 | github.com/binux/pyspi… |
3 | Crawley | Crawley能夠高速爬取對應網站的內容,支持關係和非關係數據庫,數據能夠導出爲JSON、XML等。 | project.crawley-cloud.com/ |
4 | Portia | Portia是一個開源可視化爬蟲工具,可以讓您在不須要任何編程知識的狀況下爬取網站!簡單地註釋您感興趣的頁面,Portia將建立一個蜘蛛來從相似的頁面提取數據。 | github.com/scrapinghub… |
5 | Newspaper | Newspaper能夠用來提取新聞、文章和內容分析。使用多線程,支持10多種語言等。 | github.com/codelucas/n… |
6 | Beautiful Soup | Beautiful Soup 是一個能夠從HTML或XML文件中提取數據的Python庫.它可以經過你喜歡的轉換器實現慣用的文檔導航,查找,修改文檔的方式.Beautiful Soup會幫你節省數小時甚至數天的工做時間 | www.crummy.com/software/Be… |
7 | Grab | Grab是一個用於構建Web刮板的Python框架。藉助Grab,您能夠構建各類複雜的網頁抓取工具,從簡單的5行腳本處處理數百萬個網頁的複雜異步網站抓取工具。Grab提供一個API用於執行網絡請求和處理接收到的內容,例如與HTML文檔的DOM樹進行交互。 | docs.grablib.org/en/latest/#… |
8 | Cola | Cola是一個分佈式的爬蟲框架,對於用戶來講,只需編寫幾個特定的函數,而無需關注分佈式運行的細節。任務會自動分配到多臺機器上,整個過程對用戶是透明的。 | 沒找着~ |
9 | 不少 | 看本身積累 | 多百度 |
採起可讀性更強的 xpath 代替正則強大的統計和 log 系統,同時在不一樣的 url 上爬行支持 shell 方式,方便獨立調試寫 middleware,方便寫一些統一的過濾器,經過管道的方式存入數據庫。java
基於 twisted 框架,運行中的 exception 是不會幹掉 reactor,而且異步框架出錯後是不會停掉其餘任務的,數據出錯後難以察覺。python
scrapy 是封裝起來的框架,他包含了下載器,解析器,日誌及異常處理,基於多線程, twisted 的方式處理,對於固定單個網站的爬取開發,有優點,可是對於多網站爬取,併發及分佈式處理方面,不夠靈活,不便調整與括展。react
request 是一個 HTTP 庫, 它只是用來,進行請求,對於 HTTP 請求,他是一個強大的庫,下載,解析所有本身處理,靈活性更高,高併發與分佈式部署也很是靈活,對於功能能夠更好實現。c++
她專科學歷 27歲從零開始學習c,c++,python編程語言 29歲編寫百例教程 30歲掌握10種編程語言, 用自學的經歷告訴你,學編程就找夢想橡皮擦git
歡迎關注她的公衆號,非本科程序員程序員