本節內容:
一、正則表達式
二、re模塊的運用
三、簡單的爬蟲練習
1、正則表達式(Regular Expression)
正則表達式是對字符串操做的⼀種邏輯公式. 咱們⼀般使⽤正則表達式對字符串進⾏匹配和過濾. 使⽤正則的優缺點:
優勢: 靈活, 功能性強, 邏輯性強.
缺點: 上⼿難. ⼀旦上⼿, 會愛上這個東⻄
⼯具: 各⼤⽂本編輯器⼀般都有正則匹配功能. 咱們也能夠去
http://tool.chinaz.com/regex/進⾏在線測試.
一、元字符: 元字符纔是正則表達式的靈魂.
元字符中的內容太多了, 在這⾥只介紹⼀些常⽤的.
二、字符組
字符組很簡單⽤[]括起來. 在[]中出現的內容會被匹配. 例如:[abc] 匹配a或b或c
若是字符組中的內容過多還可使⽤- ,
例如: [a-z] 匹配a到z之間的全部字⺟ [0-9]匹配全部阿拉伯數字
思考: [a-zA-Z0-9]匹配的是什麼?
三、簡單的元字符
基本的元字符. 這個東⻄⽹上⼀搜⼀⼤堆. 可是常⽤的就那麼⼏個:
. 匹配除換⾏符之外的任意字符
\w 匹配字⺟或數字或下劃線
\s 匹配任意的空⽩符
\d 匹配數字
\n 匹配⼀個換⾏符
\t 匹配⼀個製表符
\b 匹配⼀個單詞的結尾
^ 匹配字符串的開始
$ 匹配字符串的結尾
\W 匹配⾮字⺟或數字或下劃線
\D 匹配⾮數字
\S 匹配⾮空⽩符
a|b 匹配字符a或字符b
() 匹配括號內的表達式,也表示⼀個組
[...] 匹配字符組中的字符
[^...] 匹配除了字符組中字符的全部字符
四、量詞
如何⼀次性匹配不少個字符呢,
咱們要⽤到量詞
* 重複零次或更屢次
+ 重複⼀次或更屢次
? 重複零次或⼀次
{n} 重複n次
{n,} 重複n次或更屢次
{n,m} 重複n到m次
五、惰性匹配和貪婪匹配
在量詞中的*, +,{} 都屬於貪婪匹配. 就是儘量多的匹配到結果.
str: 麻花藤昨天讓英雄聯盟關服了
reg: 麻花藤.*
此時匹配的是整句話
若是.*後面跟東西,就是儘量的到後面的東西匹配
在使⽤.*後⾯加了, 則是儘量的少匹配. 表⽰惰性匹配
str: 麻花藤昨天讓英雄聯盟關服了
reg: 麻花藤.*?
此時匹配的是 麻花藤
str: <div>胡辣湯</div>
reg: <.*>
結果: <div>胡辣湯</div>
str: <div>胡辣湯</div>
reg: <.*?>
結果:
<div>
</div>
str: <div>胡辣湯</div>
reg: <(div|/div*)?>
結果:
<div>
</div>
.*?x的特殊含義 找到下⼀個x爲⽌.
str: abcdefgxhijklmn
reg: .*?x
結果:abcdefgx
六、正則分組
在正則中使⽤()進⾏分組.
老的⾝份證號有15位. 新的⾝份證號有18位. 而且新的⾝份證號結尾有多是x.
^[1-9]\d{14}(\d{2}[0-9x])?$
^([1-9]\d{16}[0-9x]|[1-9]\d{14})$
七、轉義
在正則表達式中, 有不少有特殊意義的是元字符,
⽐如\n和\s等,若是要在正則中匹配正常的"\n"⽽不是"換⾏符"就須要對"\"進⾏轉義, 變成'\\'.
在python中, ⽆論是正則表達式, 仍是待匹配的內容, 都是以字符串的形式出現的,
在字符串中\也有特殊的含義, 自己還須要轉義. 因此若是匹配⼀次"\n", 字符串中要寫成'\\n', 那麼正則⾥就要寫成"\\\\n",這樣就太麻煩了.
這個時候咱們就⽤到了r’\n’這個概念, 此時的正則是r’\n’就能夠了.
2、re模塊
一、search
search 會進⾏匹配. 可是若是匹配到了第⼀個結果. 就會返回這個結果. 若是匹配不上search返回的則是None
fe: 找到第一個就返回,找不到就返回None
search 查找,找到就返回,找不到就None res = re.search("e", "i have a dream.") print(res.group()).
二、match
只能從字符串的開頭進⾏匹配
fe:
三、findall
查找全部. 返回list
fe:
lst = re.findall("\w+", "alex is a oldboy") print(lst)
四、 finditer
和findall差很少. 只不過這時返回的是迭代器
fe:
it = re.finditer("\w+", "i have a dream") print(it)
五、分組
()優先級
(?:xxx)去掉優先級,匹配所有
()這個分組是優先級
lst = re.findall(r"www\.(baidu|oldboy)\.com","www.baidu.com")
六、其餘操做
ret = re.split('[ab]', 'qwerafjbcd')
八、爬蟲重點
obj = re.compile(r'(?P<id>\d+)(?P<name>e+)')
九、兩個坑,分組優先級,和split的切割
坑1:注意: 在re模塊中和咱們在線測試⼯具中的結果多是不⼀樣的.
ret = re.findall('www.(baidu|oldboy).com', 'www.oldboy.com') print(ret)
坑2:split⾥也有⼀個坑
ret=re.split("\d+","eva3egon4yuan") print(ret)
lst = re.split("[ab]", "alex is a good man and have big bande") print(lst)
3、簡單爬蟲練習
()這種優先級的問題有時候會幫咱們完成不少功能.
fe1: 來看⼀個比較複雜的例⼦,
內含幹掉數字簽名證書的方法:
import re from urllib.request import urlopen import ssl
fe2: 簡單的爬蟲
from urllib import request import re url = "https://www.dytt8.net/html/gndy/dyzz/20181114/57791.html"
fe3:多個分頁信息的爬蟲
from urllib.request import urlopen import re obj = re.compile(r'<div class="item">.*?<spanclass="title">(?P<name>.*?)</span>.*?導演: (?P<daoyan>.*?) .*?<span class="rating_num" property="v:average">(?P<fen>.*?)</span>.*?<span>(?P<ren>.*?)人評價</span>', re.S) def getContent(url): content = urlopen(url).read().decode("utf-8") return content def parseContent(content): it = obj.finditer(content)
總結:
正則表達式和re模塊就說這麼多. 若是要把正則全部的內容所有講清楚講明⽩, ⾄少要⼀周以上的時間. 對於咱們⽇常使⽤⽽⾔. 上述知識點已經夠⽤了. 若是碰到⼀些極端狀況建議想辦法分部處理. 先對字符串進⾏拆分. 而後再考慮⽤正則.