1.使用正則表達式爬取內涵段子html
import requests import re def loadPage(page): url = "http://www.neihan8.com/article/list_5_" +page+".html" #User-Agent頭 user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT6.1; Trident/5.0' headers = {'User-Agent': user_agent} response = requests.get(url,headers=headers) response.encoding = 'gbk' html = response.text return html if __name__=="__main__": page=input('請輸入要爬取的頁面:') html=loadPage(page) # with open('a.html','w') as f: # f.write(html) # 找到全部的段子內容<div class="f18 mb20"></div> # re.S 若是沒有re.S 則是隻匹配一行有沒有符合規則的字符串,若是沒有則下一行從新匹配 # 若是加上re.S 則是將全部的字符串將一個總體進行匹配,找到(.*?)組裏面的內容 pattern=re.compile(r'<div.*?class="f18 mb20">(.*?)</div>',re.S)#匹配規則 item_list=pattern.findall(html)#找到全部符合條件的 for item in item_list: #去除html標籤 item = item.replace("<p>", "").replace("</p>", "").replace("<br />", "") #'a'以追加的方式把內容寫入文件 with open('a.txt','a',encoding='utf-8') as f: f.write(item) print(item)
2.使用XPath下載圖片node
import requests from lxml import etree def getGirlInedx(url): headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} html=requests.get(url=url,headers=headers).text content=etree.HTML(html) link_list=content.xpath('//img[@class="BDE_Image"]//@src') for item in link_list: loadImage(item) #爬取圖片 def loadImage(linkurl): print(linkurl) #保存圖片到本地 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} filename=linkurl[-10:] htmlIamge=requests.get(linkurl) with open("image/"+filename,'wb') as f: f.write(htmlIamge.content) if __name__=="__main__": url = "https://tieba.baidu.com/p/5680998501" getGirlInedx(url)
XPath (XML Path Language) 是一門在 XML 文檔中查找信息的語言,可用來在 XML 文檔中對元素和屬性進行遍歷。python
W3School官方文檔:http://www.w3school.com.cn/xpath/index.asp正則表達式
XPath 使用路徑表達式來選取 XML 文檔中的節點或者節點集。這些路徑表達式和咱們在常規的電腦文件系統中看到的表達式很是類似。ide
下面列出了最經常使用的路徑表達式:工具
表達式 | 描述 |
---|---|
nodename | 選取此節點的全部子節點。 |
/ | 從根節點選取。 |
// | 從匹配選擇的當前節點選擇文檔中的節點,而不考慮它們的位置。 |
. | 選取當前節點。 |
.. | 選取當前節點的父節點。 |
@ | 選取屬性。 |
在下面的表格中,咱們已列出了一些路徑表達式以及表達式的結果:性能
路徑表達式 | 結果 | |
---|---|---|
bookstore | 選取 bookstore 元素的全部子節點。 | |
/bookstore | 選取根元素 bookstore。註釋:假如路徑起始於正斜槓( / ),則此路徑始終表明到某元素的絕對路徑! | |
bookstore/book | 選取屬於 bookstore 的子元素的全部 book 元素。 | |
//book | 選取全部 book 子元素,而無論它們在文檔中的位置。 | |
bookstore//book | 選擇屬於 bookstore 元素的後代的全部 book 元素,而無論它們位於 bookstore 之下的什麼位置。 | |
//@lang | 選取名爲 lang 的全部屬性。 |
謂語用來查找某個特定的節點或者包含某個指定的值的節點,被嵌在方括號中。學習
在下面的表格中,咱們列出了帶有謂語的一些路徑表達式,以及表達式的結果:開發工具
路徑表達式 | 結果 |
---|---|
/bookstore/book[1] | 選取屬於 bookstore 子元素的第一個 book 元素。 |
/bookstore/book[last()] | 選取屬於 bookstore 子元素的最後一個 book 元素。 |
/bookstore/book[last()-1] | 選取屬於 bookstore 子元素的倒數第二個 book 元素。 |
/bookstore/book[position()<3] | 選取最前面的兩個屬於 bookstore 元素的子元素的 book 元素。 |
//title[@lang] | 選取全部擁有名爲 lang 的屬性的 title 元素。 |
//title[@lang=’eng’] | 選取全部 title 元素,且這些元素擁有值爲 eng 的 lang 屬性。 |
/bookstore/book[price>35.00] | 選取 bookstore 元素的全部 book 元素,且其中的 price 元素的值須大於 35.00。 |
/bookstore/book[price>35.00]/title | 選取 bookstore 元素中的 book 元素的全部 title 元素,且其中的 price 元素的值須大於 35.00。 |
XPath 通配符可用來選取未知的 XML 元素。測試
通配符 | 描述 |
---|---|
* | 匹配任何元素節點。 |
@* | 匹配任何屬性節點。 |
node() | 匹配任何類型的節點。 |
在下面的表格中,咱們列出了一些路徑表達式,以及這些表達式的結果:
路徑表達式 | 結果 |
---|---|
/bookstore/* | 選取 bookstore 元素的全部子元素。 |
//* | 選取文檔中的全部元素。 |
//title[@*] | 選取全部帶有屬性的 title 元素。 |
經過在路徑表達式中使用「|」運算符,您能夠選取若干個路徑。
實例
在下面的表格中,咱們列出了一些路徑表達式,以及這些表達式的結果:
路徑表達式 | 結果 |
---|---|
//book/title | //book/price | 選取 book 元素的全部 title 和 price 元素。 |
//title | //price | 選取文檔中的全部 title 和 price 元素。 |
/bookstore/book/title | //price | 選取屬於 bookstore 元素的 book 元素的全部 title 元素,以及文檔中全部的 price 元素。 |
下面列出了可用在 XPath 表達式中的運算符:
lxml 是 一個HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 數據。
lxml和正則同樣,也是用 C 實現的,是一款高性能的 Python HTML/XML 解析器,咱們能夠利用以前學習的XPath語法,來快速的定位特定元素以及節點信息。
lxml python 官方文檔:http://lxml.de/index.html
須要安裝C語言庫,可以使用 pip 安裝:
pip install lxml
(或經過wheel方式安裝)
咱們利用它來解析 HTML 代碼,簡單示例:
# lxml_test.py
# 使用 lxml 的 etree 庫 from lxml import etree text = ''' <div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此處缺乏一個 </li> 閉合標籤 </ul> </div> ''' #利用etree.HTML,將字符串解析爲HTML文檔 html = etree.HTML(text) # 按字符串序列化HTML文檔 result = etree.tostring(html) print(result)
輸出結果:
<html><body> <div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a></li> </ul> </div> </body></html>
lxml 能夠自動修正 html 代碼,例子裏不只補全了 li 標籤,還添加了 body,html 標籤。
除了直接讀取字符串,lxml還支持從文件裏讀取內容。咱們新建一個hello.html文件:
<!-- hello.html -->
<div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a></li> </ul> </div>
再利用 etree.parse() 方法來讀取文件。
# lxml_parse.py
from lxml import etree # 讀取外部文件 hello.html html = etree.parse('./hello.html') result = etree.tostring(html, pretty_print=True) print(result)
輸出結果與以前相同:
<html><body> <div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a></li> </ul> </div> </body></html>
<li>
標籤# xpath_li.py
from lxml import etree html = etree.parse('hello.html') print type(html) # 顯示etree.parse() 返回類型 result = html.xpath('//li') print result # 打印<li>標籤的元素集合 print len(result) print type(result) print type(result[0])
輸出結果:
<type 'lxml.etree._ElementTree'> [<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>] 5 <type 'list'> <type 'lxml.etree._Element'>
<li>
標籤的全部 class
屬性# xpath_li.py
from lxml import etree html = etree.parse('hello.html') result = html.xpath('//li/@class') print(result)
運行結果
['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
<li>
標籤下hre
爲 link1.html
的 <a>
標籤# xpath_li.py
from lxml import etree html = etree.parse('hello.html') result = html.xpath('//li/a[@href="link1.html"]') print(result)
運行結果
[<Element a at 0x10ffaae18>]
<li>
標籤下的全部 <span>
標籤# xpath_li.py
from lxml import etree html = etree.parse('hello.html') #result = html.xpath('//li/span') #注意這麼寫是不對的: #由於 / 是用來獲取子元素的,而 <span> 並非 <li> 的子元素,因此,要用雙斜槓 result = html.xpath('//li//span') print(result)
運行結果
[<Element span at 0x10d698e18>]
<li>
標籤下的<a>
標籤裏的全部 class# xpath_li.py
from lxml import etree html = etree.parse('hello.html') result = html.xpath('//li/a//@class') print(result)
運行結果
['blod']
<li>
的 <a>
的 href# xpath_li.py
from lxml import etree html = etree.parse('hello.html') result = html.xpath('//li[last()]/a/@href') # 謂語 [last()] 能夠找到最後一個元素 print(result)
運行結果
['link5.html']
# xpath_li.py
from lxml import etree html = etree.parse('hello.html') result = html.xpath('//li[last()-1]/a') # text 方法能夠獲取元素內容 print(result[0].text)
運行結果
fourth item
class
值爲 bold
的標籤名# xpath_li.py
from lxml import etree html = etree.parse('hello.html') result = html.xpath('//*[@class="bold"]') # tag方法能夠獲取標籤名 print(result[0].tag)
運行結果
span