01-爬蟲介紹

01-爬蟲介紹 1. 什麼是爬蟲 網絡爬蟲是一種按照必定的規則,自動地抓網絡信息的程序或者腳本。 2. 爬蟲分類 1- 通用爬蟲:   通用爬蟲是搜索引擎(Baidu、Google、Yahoo等)「抓取系統」的重要組成部分。主要目的是將互聯網上的網頁下載到本地,造成一個互聯網內容的鏡像備份。簡單來說就是儘量的;把互聯網上的全部的網頁下載下來,放到本地服務器裏造成備分,在對這些網頁作相關處理(提取關
相關文章
相關標籤/搜索