網絡爬蟲

網絡爬蟲的定義:(又被稱爲網頁蜘蛛,網絡機器人,在FOAF社區中間,更經常的稱爲網頁追逐者),是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。 網絡爬蟲分類: 網絡爬蟲按照系統結構和實現技術,大致可以分爲以下幾種類型:通用網絡爬蟲(General Purpose Web Crawler)、聚焦網絡爬蟲(Focused Web C
相關文章
相關標籤/搜索