python如何實現爬蟲技術

1、什麼是爬蟲


爬蟲:爬蟲的做用就是從互聯網上抓取對
咱們有價值的信息。他的本質,是一段程序,是一段自動抓取互聯網信息的程序。

2、Python爬蟲架構


Python 爬蟲架構
主要由調度器、URL管理器、網頁下載器、網頁解析器、應用程序五個部分組成。

  • 調度器:
  • 調度器主要負責
    調度URL管理器、下載器、解析器之間的協調,做用至關於電腦的CPU
  • URL管理器:
  • url管理器包括已經抓取和還在等待爬取的url地址,防止重複和循環抓取url.實現url管理器主要有三種方式,方式1內存,方式2數據庫,方式3緩存數據。
  • 網頁下載器:
  • 下載網頁要經過傳入一個url地址來進行,
    將網頁轉換成一個字符串,網頁下載器有urllib2(Python官方基礎模塊)包括須要登陸、代理、和cookie,requests(第三方包)
  • 網頁解析器:
  • 將一個網頁字符串進行解析,能夠按照咱們的要求來提取出咱們有用的信息,也能夠根據DOM樹的解析方式來解析。網頁解析器有正則表達式(直觀,將網頁轉成字符串經過模糊匹配的方式來提取有價值的信息,當文檔比較複雜的時候,該方法提取數據的時候就會很是的困難)、html.parser(Python自帶的)、beautifulsoup(第三方插件,可使用Python自帶的html.parser進行解析,也可使用lxml進行解析,相對於其餘幾種來講要強大一些)、lxml(第三方插件,能夠解析 xml 和 HTML),html.parser 和 beautifulsoup 以及 lxml 都是以 DOM 樹的方式進行解析的。
  • 應用程序:
  • 從網頁中提取的有用數據組成的一個應用。

下面用一個圖來解釋一下調度器是如何協調工做的:

3、urllib2 實現下載網頁的三種方式

#!/usr/bin/python# -*- coding: UTF-8 -*- import cookielibimport urllib2 url = "http://www.baidu.com"response1 = urllib2.urlopen(url)print "第一種方法"#獲取狀態碼,200表示成功print response1.getcode()#獲取網頁內容的長度print len(response1.read()) print "第二種方法"request = urllib2.Request(url)#模擬Mozilla瀏覽器進行爬蟲request.add_header("user-agent","Mozilla/5.0")response2 = urllib2.urlopen(request)print response2.getcode()print len(response2.read()) print "第三種方法"cookie = cookielib.CookieJar()#加入urllib2處理cookie的能力opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))urllib2.install_opener(opener)response3 = urllib2.urlopen(url)print response3.getcode()print len(response3.read())print cookie複製代碼

4、第三方庫 Beautiful Soup 的安裝

Beautiful Soup: Python 的第三方插件用來提取 xml 和 HTML 中的數據,官網地址 www.crummy.com/software/Be…

一、安裝 Beautiful Soup

打開 cmd(命令提示符),進入到 Python(Python2.7版本)安裝目錄中的 scripts 下,輸入 dir 查看是否有 pip.exe, 若是用就可使用 Python 自帶的 pip 命令進行安裝,輸入如下命令進行安裝便可:

pip install beautifulsoup4複製代碼

二、測試是否安裝成功

編寫一個 Python 文件,輸入:

import bs4
print bs4複製代碼

運行該文件,若是可以正常輸出則安裝成功。

5、使用 Beautiful Soup 解析 html 文件

#!/usr/bin/python# -*- coding: UTF-8 -*- import re from bs4 import BeautifulSouphtml_doc = """<html><head><title>The Dormouse's story</title></head><body><p class="title"><b>The Dormouse's story</b></p><p class="story">Once upon a time there were three little sisters; and their names were<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;and they lived at the bottom of a well.</p><p class="story">...</p>"""#建立一個BeautifulSoup解析對象soup = BeautifulSoup(html_doc,"html.parser",from_encoding="utf-8")#獲取全部的連接links = soup.find_all('a')print "全部的連接"for link in links: print link.name,link['href'],link.get_text() print "獲取特定的URL地址"link_node = soup.find('a',href="http://example.com/elsie")print link_node.name,link_node['href'],link_node['class'],link_node.get_text() print "正則表達式匹配"link_node = soup.find('a',href=re.compile(r"ti"))print link_node.name,link_node['href'],link_node['class'],link_node.get_text() print "獲取P段落的文字"p_node = soup.find('p',class_='story')print p_node.name,p_node['class'],p_node.get_text()複製代碼

相關文章
相關標籤/搜索