正則 表達式 xpath 欄目 正則表達式 简体版
原文   原文鏈接

1.使用正則表達式爬取內涵段子html

import requests
import re

def loadPage(page):

    url = "http://www.neihan8.com/article/list_5_" +page+".html"
    #User-Agent頭
    user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT6.1; Trident/5.0'
    headers = {'User-Agent': user_agent}
    response = requests.get(url,headers=headers)
    response.encoding = 'gbk'
    html = response.text



    return html

if __name__=="__main__":
    page=input('請輸入要爬取的頁面:')
    html=loadPage(page)
    # with open('a.html','w') as f:
    #     f.write(html)

    # 找到全部的段子內容<div class="f18 mb20"></div>
    # re.S 若是沒有re.S 則是隻匹配一行有沒有符合規則的字符串,若是沒有則下一行從新匹配
    # 若是加上re.S 則是將全部的字符串將一個總體進行匹配,找到(.*?)組裏面的內容
    pattern=re.compile(r'<div.*?class="f18 mb20">(.*?)</div>',re.S)#匹配規則
    item_list=pattern.findall(html)#找到全部符合條件的
    for item in item_list:
        #去除html標籤
        item = item.replace("<p>", "").replace("</p>", "").replace("<br />", "")
        #'a'以追加的方式把內容寫入文件
        with open('a.txt','a',encoding='utf-8') as f:
            f.write(item)
        print(item)

 

2.使用XPath下載圖片node

import requests
from lxml import etree


def getGirlInedx(url):
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

    html=requests.get(url=url,headers=headers).text
    content=etree.HTML(html)
    link_list=content.xpath('//img[@class="BDE_Image"]//@src')
    for item in link_list:
        loadImage(item)

#爬取圖片
def loadImage(linkurl):
    print(linkurl)
    #保存圖片到本地
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}

    filename=linkurl[-10:]
    htmlIamge=requests.get(linkurl)
    with open("image/"+filename,'wb') as f: f.write(htmlIamge.content) if __name__=="__main__":
    url = "https://tieba.baidu.com/p/5680998501"
    getGirlInedx(url)

 

什麼是XPath?

XPath (XML Path Language) 是一門在 XML 文檔中查找信息的語言,可用來在 XML 文檔中對元素和屬性進行遍歷。python

W3School官方文檔:http://www.w3school.com.cn/xpath/index.asp正則表達式

XPath 開發工具

  1. 開源的XPath表達式編輯工具:XMLQuire(XML格式文件可用)
  2. Chrome插件 XPath Helper
  3. Firefox插件 XPath Checker

選取節點

XPath 使用路徑表達式來選取 XML 文檔中的節點或者節點集。這些路徑表達式和咱們在常規的電腦文件系統中看到的表達式很是類似。ide

下面列出了最經常使用的路徑表達式:工具

表達式 描述
nodename 選取此節點的全部子節點。
/ 從根節點選取。
// 從匹配選擇的當前節點選擇文檔中的節點,而不考慮它們的位置。
. 選取當前節點。
.. 選取當前節點的父節點。
@ 選取屬性。

在下面的表格中,咱們已列出了一些路徑表達式以及表達式的結果:性能

  路徑表達式 結果
bookstore 選取 bookstore 元素的全部子節點。
/bookstore 選取根元素 bookstore。註釋:假如路徑起始於正斜槓( / ),則此路徑始終表明到某元素的絕對路徑!
bookstore/book 選取屬於 bookstore 的子元素的全部 book 元素。
//book 選取全部 book 子元素,而無論它們在文檔中的位置。
bookstore//book 選擇屬於 bookstore 元素的後代的全部 book 元素,而無論它們位於 bookstore 之下的什麼位置。
//@lang 選取名爲 lang 的全部屬性。

謂語(Predicates)

謂語用來查找某個特定的節點或者包含某個指定的值的節點,被嵌在方括號中。學習

在下面的表格中,咱們列出了帶有謂語的一些路徑表達式,以及表達式的結果:開發工具

路徑表達式 結果
/bookstore/book[1] 選取屬於 bookstore 子元素的第一個 book 元素。
/bookstore/book[last()] 選取屬於 bookstore 子元素的最後一個 book 元素。
/bookstore/book[last()-1] 選取屬於 bookstore 子元素的倒數第二個 book 元素。
/bookstore/book[position()<3] 選取最前面的兩個屬於 bookstore 元素的子元素的 book 元素。
//title[@lang] 選取全部擁有名爲 lang 的屬性的 title 元素。
//title[@lang=’eng’] 選取全部 title 元素,且這些元素擁有值爲 eng 的 lang 屬性。
/bookstore/book[price>35.00] 選取 bookstore 元素的全部 book 元素,且其中的 price 元素的值須大於 35.00。
/bookstore/book[price>35.00]/title 選取 bookstore 元素中的 book 元素的全部 title 元素,且其中的 price 元素的值須大於 35.00。

選取未知節點

XPath 通配符可用來選取未知的 XML 元素。測試

通配符 描述
* 匹配任何元素節點。
@* 匹配任何屬性節點。
node() 匹配任何類型的節點。

在下面的表格中,咱們列出了一些路徑表達式,以及這些表達式的結果:

路徑表達式 結果
/bookstore/* 選取 bookstore 元素的全部子元素。
//* 選取文檔中的全部元素。
//title[@*] 選取全部帶有屬性的 title 元素。

選取若干路徑

經過在路徑表達式中使用「|」運算符,您能夠選取若干個路徑。

實例

在下面的表格中,咱們列出了一些路徑表達式,以及這些表達式的結果:

路徑表達式 結果
//book/title | //book/price 選取 book 元素的全部 title 和 price 元素。
//title | //price 選取文檔中的全部 title 和 price 元素。
/bookstore/book/title | //price 選取屬於 bookstore 元素的 book 元素的全部 title 元素,以及文檔中全部的 price 元素。

XPath的運算符

下面列出了可用在 XPath 表達式中的運算符:

lxml庫

lxml 是 一個HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 數據。

lxml和正則同樣,也是用 C 實現的,是一款高性能的 Python HTML/XML 解析器,咱們能夠利用以前學習的XPath語法,來快速的定位特定元素以及節點信息。

lxml python 官方文檔:http://lxml.de/index.html

須要安裝C語言庫,可以使用 pip 安裝:pip install lxml (或經過wheel方式安裝)

初步使用

咱們利用它來解析 HTML 代碼,簡單示例:

# lxml_test.py
# 使用 lxml 的 etree 庫
from lxml import etree 

text = '''
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此處缺乏一個 </li> 閉合標籤
     </ul>
 </div>
'''

#利用etree.HTML,將字符串解析爲HTML文檔
html = etree.HTML(text) 

# 按字符串序列化HTML文檔
result = etree.tostring(html) 

print(result)

 

輸出結果:

<html><body>
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
 </div>
</body></html>

 

lxml 能夠自動修正 html 代碼,例子裏不只補全了 li 標籤,還添加了 body,html 標籤。

文件讀取:

除了直接讀取字符串,lxml還支持從文件裏讀取內容。咱們新建一個hello.html文件:

<!-- hello.html -->
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

 

再利用 etree.parse() 方法來讀取文件。

# lxml_parse.py
from lxml import etree

# 讀取外部文件 hello.html
html = etree.parse('./hello.html')
result = etree.tostring(html, pretty_print=True)

print(result)

 

輸出結果與以前相同:

<html><body>
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
 </div>
</body></html>

 

XPath實例測試

1. 獲取全部的 <li> 標籤

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')
print type(html)  # 顯示etree.parse() 返回類型

result = html.xpath('//li')

print result  # 打印<li>標籤的元素集合
print len(result)
print type(result)
print type(result[0])

 

輸出結果:

<type 'lxml.etree._ElementTree'>
[<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>]
5
<type 'list'>
<type 'lxml.etree._Element'>

 

2. 繼續獲取<li> 標籤的全部 class屬性

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')
result = html.xpath('//li/@class')

print(result)

 

運行結果

['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']

 

3. 繼續獲取<li>標籤下hre 爲 link1.html 的 <a> 標籤

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')
result = html.xpath('//li/a[@href="link1.html"]')

print(result)

 

運行結果

[<Element a at 0x10ffaae18>]

 

4. 獲取<li> 標籤下的全部 <span> 標籤

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')

#result = html.xpath('//li/span')
#注意這麼寫是不對的:
#由於 / 是用來獲取子元素的,而 <span> 並非 <li> 的子元素,因此,要用雙斜槓

result = html.xpath('//li//span')

print(result)

 

 

 

運行結果

[<Element span at 0x10d698e18>]

 

5. 獲取 <li> 標籤下的<a>標籤裏的全部 class

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')
result = html.xpath('//li/a//@class')

print(result)

 

運行結果

['blod']

 

6. 獲取最後一個 <li> 的 <a> 的 href

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')

result = html.xpath('//li[last()]/a/@href')
# 謂語 [last()] 能夠找到最後一個元素

print(result)

 

運行結果

['link5.html']

 

7. 獲取倒數第二個元素的內容

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')
result = html.xpath('//li[last()-1]/a')

# text 方法能夠獲取元素內容
print(result[0].text)

 

運行結果

fourth item

 

8. 獲取 class 值爲 bold 的標籤名

# xpath_li.py
from lxml import etree

html = etree.parse('hello.html')

result = html.xpath('//*[@class="bold"]')

# tag方法能夠獲取標籤名
print(result[0].tag)

 

運行結果

span
相關文章
相關標籤/搜索
每日一句
    每一个你不满意的现在,都有一个你没有努力的曾经。
本站公眾號
   歡迎關注本站公眾號,獲取更多信息