Python即時網絡爬蟲項目: 內容提取器的定義(Python2.7版本)

1. 項目背景

圖片描述

Python即時網絡爬蟲項目啓動說明中咱們討論一個數字:程序員浪費在調測內容提取規則上的時間太多了(見上圖),從而咱們發起了這個項目,把程序員從繁瑣的調測規則中解放出來,投入到更高端的數據處理工做中。html

這個項目推出之後受到很大關注,由於開放源碼,你們能夠在現成源碼基礎上進一步開發。然而,Python3和Python2是有區別的,《Python即時網絡爬蟲項目: 內容提取器的定義》 一文的源碼沒法在Python2.7下使用,本文將發佈一個Python2.7的內容提取器。python

2. 解決方案

爲了解決這個問題,咱們把影響通用性和工做效率的提取器隔離出來,描述了以下的數據處理流程圖:git

圖片描述

圖中「可插拔提取器」必須很強的模塊化,那麼關鍵的接口有:程序員

  • 標準化的輸入:以標準的HTML DOM對象爲輸入github

  • 標準化的內容提取:使用標準的xslt模板提取網頁內容web

  • 標準化的輸出:以標準的XML格式輸出從網頁上提取到的內容segmentfault

  • 明確的提取器插拔接口:提取器是一個明肯定義的類,經過類方法與爬蟲引擎模塊交互windows

3. 提取器代碼

可插拔提取器是即時網絡爬蟲項目的核心組件,定義成一個類: GsExtractor
適用python2.7的源代碼文件及其說明文檔請從 github 下載api

使用模式是這樣的:網絡

  1. 實例化一個GsExtractor對象

  2. 爲這個對象設定xslt提取器,至關於把這個對象配置好(使用三類setXXX()方法)

  3. 把html dom輸入給它,就能得到xml輸出(使用extract()方法)

下面是這個GsExtractor類的源代碼(適用於Python2.7)

#!/usr/bin/python
# -*- coding: utf-8 -*-
# 模塊名: gooseeker_py2
# 類名: GsExtractor
# Version: 2.0
# 適配Python版本: 2.7
# 說明: html內容提取器
# 功能: 使用xslt做爲模板,快速提取HTML DOM中的內容。
# released by 集搜客(http://www.gooseeker.com) on May 18, 2016
# github: https://github.com/FullerHua/jisou/core/gooseeker_py2.py

from urllib2 import urlopen
from urllib import quote
from lxml import etree
import time

class GsExtractor(object):
    def _init_(self):
        self.xslt = ""
    # 從文件讀取xslt
    def setXsltFromFile(self , xsltFilePath):
        file = open(xsltFilePath , 'r')
        try:
            self.xslt = file.read()
        finally:
            file.close()
    # 從字符串得到xslt
    def setXsltFromMem(self , xsltStr):
        self.xslt = xsltStr
    # 經過GooSeeker API接口得到xslt
    def setXsltFromAPI(self , APIKey , theme, middle=None, bname=None):
        apiurl = "http://www.gooseeker.com/api/getextractor?key="+ APIKey +"&theme="+quote(theme)
        if (middle):
            apiurl = apiurl + "&middle="+quote(middle)
        if (bname):
            apiurl = apiurl + "&bname="+quote(bname)
        apiconn = urlopen(apiurl)
        self.xslt = apiconn.read()
    # 返回當前xslt
    def getXslt(self):
        return self.xslt
    # 提取方法,入參是一個HTML DOM對象,返回是提取結果
    def extract(self , html):
        xslt_root = etree.XML(self.xslt)
        transform = etree.XSLT(xslt_root)
        result_tree = transform(html)
        return result_tree

4. 用法示例

下面是一個示例程序,演示怎樣使用GsExtractor類提取豆瓣討論組話題。本示例有以下特徵:

  • 提取器的內容經過GooSeeker平臺上的api得到

  • 保存結果文件到當前文件夾

下面是源代碼,均可從 github 下載

# _*_coding:utf8_*_
# douban_py2.py
# 爬取豆瓣小組討論話題
# Python版本: 2.7

from lxml import etree
from gooseeker_py2 import GsExtractor
from selenium import webdriver
import time

class PhantomSpider:
    def getContent(self, url):
        browser = webdriver.PhantomJS(executable_path='C:\\phantomjs-2.1.1-windows\\bin\\phantomjs.exe')
        browser.get(url)
        time.sleep(3)
        html = browser.execute_script("return document.documentElement.outerHTML")
        output = etree.HTML(html)
        return output

    def saveContent(self, filepath, content):
        file_obj = open(filepath, 'w')
        file_obj.write(content)
        file_obj.close()

doubanExtra = GsExtractor()   
# 下面這句調用gooseeker的api來設置xslt抓取規則
# 第一個參數是app key,請到GooSeeker會員中心申請
# 第二個參數是規則名,是經過GooSeeker的圖形化工具: 謀數臺MS 來生成的
doubanExtra.setXsltFromAPI("ffd5273e213036d812ea298922e2627b" , "豆瓣小組討論話題")  

url = "https://www.douban.com/group/haixiuzu/discussion?start="
totalpages = 5
doubanSpider = PhantomSpider()
print("爬取開始")

for pagenumber in range(1 , totalpages):
    currenturl = url + str((pagenumber-1)*25)
    print("正在爬取", currenturl)
    content = doubanSpider.getContent(currenturl)
    outputxml = doubanExtra.extract(content)
    outputfile = "result" + str(pagenumber) +".xml"
    doubanSpider.saveContent(outputfile , str(outputxml))

print("爬取結束")

提取結果以下圖所示:

圖片描述

5. 接下來閱讀

本文已經說明了提取器的價值和用法,可是沒有說怎樣生成它,只有快速生成提取器才能達到節省開發者時間的目的,這個問題將在其餘文章講解,請看《1分鐘快速生成用於網頁內容提取的xslt模板》

6. 集搜客GooSeeker開源代碼下載源

  1. GooSeeker開源Python網絡爬蟲GitHub源

7. 文檔修改歷史

2016-08-05:V1.0,Python2.7下的內容提取器類首次發佈

相關文章
相關標籤/搜索