根據使用場景,網絡爬蟲可分爲 通用爬蟲 和 聚焦爬蟲 兩種.數據庫
通用網絡爬蟲 是 捜索引擎抓取系統(Baidu、Google、Yahoo等)的重要組成部分。主要目的是將互聯網上的網頁下載到本地,造成一個互聯網內容的鏡像備份。瀏覽器
通用網絡爬蟲 從互聯網中搜集網頁,採集信息,這些網頁信息用於爲搜索引擎創建索引從而提供支持,它決定着整個引擎系統的內容是否豐富,信息是否即時,所以其性能的優劣直接影響着搜索引擎的效果。網絡
搜索引擎網絡爬蟲的基本工做流程以下:性能
首先選取一部分的種子URL,將這些URL放入待抓取URL隊列;學習
取出待抓取URL,解析DNS獲得主機的IP,並將URL對應的網頁下載下來,存儲進已下載網頁庫中,而且將這些URL放進已抓取URL隊列。網站
分析已抓取URL隊列中的URL,分析其中的其餘URL,而且將URL放入待抓取URL隊列,從而進入下一個循環....搜索引擎
可是搜索引擎蜘蛛的爬行是被輸入了必定的規則的,它須要聽從一些命令或文件的內容,如標註爲nofollow
的連接,或者是Robots
協議。url
Robots協議(也叫爬蟲協議、機器人協議等),全稱是「網絡爬蟲排除標準」(Robots Exclusion Protocol),網站經過Robots協議告訴搜索引擎哪些頁面能夠抓取,哪些頁面不能抓取,例如:3d
搜索引擎經過爬蟲爬取到的網頁,將數據存入原始頁面數據庫。其中的頁面數據與用戶瀏覽器獲得的HTML是徹底同樣的。
搜索引擎蜘蛛在抓取頁面時,也作必定的重複內容檢測,一旦遇到訪問權重很低的網站上有大量抄襲、採集或者複製的內容,極可能就再也不爬行。
搜索引擎將爬蟲抓取回來的頁面,進行各類步驟的預處理。
除了HTML文件外,搜索引擎一般還能抓取和索引以文字爲基礎的多種文件類型,如 PDF、Word、WPS、XLS、PPT、TXT 文件等。咱們在搜索結果中也常常會看到這些文件類型。
但搜索引擎還不能處理圖片、視頻、Flash 這類非文字內容,也不能執行腳本和程序。
搜索引擎在對信息進行組織和處理後,爲用戶提供關鍵字檢索服務,將用戶檢索相關的信息展現給用戶。
同時會根據頁面的PageRank值(連接的訪問量排名)來進行網站排名,這樣Rank值高的網站在搜索結果中會排名較前,固然也能夠直接使用 Money 購買搜索引擎網站排名,簡單粗暴。
通用搜索引擎所返回的結果都是網頁,而大多狀況下,網頁裏90%的內容對用戶來講都是無用的。
不一樣領域、不一樣背景的用戶每每具備不一樣的檢索目的和需求,搜索引擎沒法提供針對具體某個用戶的搜索結果。
萬維網數據形式的豐富和網絡技術的不斷髮展,圖片、數據庫、音頻、視頻多媒體等不一樣數據大量出現,通用搜索引擎對這些文件無能爲力,不能很好地發現和獲取。
通用搜索引擎大多提供基於關鍵字的檢索,難以支持根據語義信息提出的查詢,沒法準確理解用戶的具體需求。
聚焦爬蟲,是"面向特定主題需求"的一種網絡爬蟲程序,它與通用搜索引擎爬蟲的區別在於: 聚焦爬蟲在實施網頁抓取時會對內容進行處理篩選,儘可能保證只抓取與需求相關的網頁信息。