day023正則表達式,re模塊,簡單爬蟲和多頁面爬蟲(幹掉數字簽名證書驗證)

本節內容:

一、正則表達式
二、re模塊的運用
三、簡單的爬蟲練習

1、正則表達式(Regular Expression)

正則表達式是對字符串操做的⼀種邏輯公式. 咱們⼀般使⽤正則表達式對字符串進⾏匹配和過濾. 使⽤正則的優缺點:
優勢: 靈活, 功能性強, 邏輯性強.
缺點: 上⼿難. ⼀旦上⼿, 會愛上這個東⻄
⼯具: 各⼤⽂本編輯器⼀般都有正則匹配功能. 咱們也能夠去
http://tool.chinaz.com/regex/進⾏在線測試.

一、元字符: 元字符纔是正則表達式的靈魂.

元字符中的內容太多了, 在這⾥只介紹⼀些常⽤的.

二、字符組

字符組很簡單⽤[]括起來. 在[]中出現的內容會被匹配. 例如:[abc] 匹配a或b或c
若是字符組中的內容過多還可使⽤- ,
例如: [a-z] 匹配a到z之間的全部字⺟ [0-9]匹配全部阿拉伯數字
思考: [a-zA-Z0-9]匹配的是什麼?

三、簡單的元字符

基本的元字符. 這個東⻄⽹上⼀搜⼀⼤堆. 可是常⽤的就那麼⼏個:
. 匹配除換⾏符之外的任意字符
\w 匹配字⺟或數字或下劃線
\s 匹配任意的空⽩符
\d 匹配數字
\n 匹配⼀個換⾏符
\t 匹配⼀個製表符
\b 匹配⼀個單詞的結尾
^ 匹配字符串的開始
$ 匹配字符串的結尾
\W 匹配⾮字⺟或數字或下劃線
\D 匹配⾮數字
\S 匹配⾮空⽩符
a|b 匹配字符a或字符b
() 匹配括號內的表達式,也表示⼀個組
[...] 匹配字符組中的字符
[^...] 匹配除了字符組中字符的全部字符

四、量詞

如何⼀次性匹配不少個字符呢,

咱們要⽤到量詞

* 重複零次或更屢次
+ 重複⼀次或更屢次
? 重複零次或⼀次
{n} 重複n次
{n,} 重複n次或更屢次
{n,m} 重複n到m次

五、惰性匹配和貪婪匹配

在量詞中的*, +,{} 都屬於貪婪匹配. 就是儘量多的匹配到結果.

str: 麻花藤昨天讓英雄聯盟關服了
reg: 麻花藤.*
此時匹配的是整句話

若是.*後面跟東西,就是儘量的到後面的東西匹配

在使⽤.*後⾯加了, 則是儘量的少匹配. 表⽰惰性匹配

str: 麻花藤昨天讓英雄聯盟關服了
reg: 麻花藤.*?
此時匹配的是 麻花藤

str: <div>胡辣湯</div>
reg: <.*>
結果: <div>胡辣湯</div>

str: <div>胡辣湯</div>
reg: <.*?>
結果:
    <div>
    </div>

str: <div>胡辣湯</div>
reg: <(div|/div*)?>
結果:
 <div>
 </div>

.*?x的特殊含義 找到下⼀個x爲⽌.

str: abcdefgxhijklmn
reg: .*?x
結果:abcdefgx

六、正則分組

在正則中使⽤()進⾏分組.
老的⾝份證號有15位. 新的⾝份證號有18位. 而且新的⾝份證號結尾有多是x.
^[1-9]\d{14}(\d{2}[0-9x])?$
^([1-9]\d{16}[0-9x]|[1-9]\d{14})$

七、轉義

在正則表達式中, 有不少有特殊意義的是元字符,
⽐如\n和\s等,若是要在正則中匹配正常的"\n"⽽不是"換⾏符"就須要對"\"進⾏轉義, 變成'\\'.
在python中, ⽆論是正則表達式, 仍是待匹配的內容, 都是以字符串的形式出現的,
在字符串中\也有特殊的含義, 自己還須要轉義. 因此若是匹配⼀次"\n", 字符串中要寫成'\\n', 那麼正則⾥就要寫成"\\\\n",這樣就太麻煩了.

這個時候咱們就⽤到了r’\n’這個概念, 此時的正則是r’\n’就能夠了.

2、re模塊

search 會進⾏匹配. 可是若是匹配到了第⼀個結果. 就會返回這個結果. 若是匹配不上search返回的則是None

fe: 找到第一個就返回,找不到就返回None

search 查找,找到就返回,找不到就None res = re.search("e", "i have a dream.") print(res.group()).

二、match

只能從字符串的開頭進⾏匹配

fe:

# match 從頭匹配,若是匹配到了,就返回 res = re.match("\w+", "alex is a oldboy") print(res.group()) # alex

三、findall

查找全部. 返回list

fe:

lst = re.findall("\w+", "alex is a oldboy") print(lst) # ['alex', 'is', 'a', 'oldboy'] 找到全部

四、 finditer

和findall差很少. 只不過這時返回的是迭代器

fe:

it = re.finditer("\w+", "i have a dream") print(it) # 迭代器 <callable_iterator object at 0x000002C7B07A7DD8> for el in it: print(el.group()) # 依然須要分組

五、分組

()優先級
(?:xxx)去掉優先級,匹配所有

()這個分組是優先級

lst = re.findall(r"www\.(baidu|oldboy)\.com","www.baidu.com") # 優先括號裏面的,匹配 print(lst) # ['baidu']
##### (?:) 去掉優先級 lst = re.findall(r"www\.(?:baidu|oldboy)\.com", "www.baidu.com") # 去掉優先級 print(lst) # ['www.baidu.com']

六、其餘操做

ret = re.split('[ab]', 'qwerafjbcd') # 先按'a'分割獲得'qwer'和'fjbcd',在對'qwer'和'fjbcd'分別按'b'分割 print(ret) # ['qwer', 'fj', 'cd'] # 替換 ret = re.sub(r"\d+", "_sb_", "alex250taibai250wusir250ritian38") # 把字符串中的數字換成__sb__ print(ret) # alex_sb_taibai_sb_wusir_sb_ritian_sb_ # 替換, 返回的結果,帶有次數 ret = re.subn(r"\d+", "_sb_", "alex250taibai250wusir250ritian38") # 將數字替換成'__sb__',返回元組(替換的結果,替換了多少次) print(ret) # ('alex_sb_taibai_sb_wusir_sb_ritian_sb_', 4) obj = re.compile(r'\d{3}') # 將正則表達式編譯成爲⼀個 正則表達式對象, 規則要匹配的是3個數字 ret = obj.search('abc123eeee') # 正則表達式對象調⽤search, 參數爲待匹配的字符串 print(ret.group()) # 結果: 123

八、爬蟲重點

obj = re.compile(r'(?P<id>\d+)(?P<name>e+)') # 從正則表達式匹配的內容每一個組起名字 ret = obj.search('abc123eeee') # 搜索 print(ret.group()) # 結果: 123eeee print(ret.group("id")) # 結果: 123 # 獲取id組的內容 print(ret.group("name")) # 結果: eeee # 獲取name組的內容

九、兩個坑,分組優先級,和split的切割

坑1:注意: 在re模塊中和咱們在線測試⼯具中的結果多是不⼀樣的.

ret = re.findall('www.(baidu|oldboy).com', 'www.oldboy.com') print(ret) # ['oldboy'] 這是由於findall會優先把匹配結果組⾥內容返回,若是想要匹配結果,取消權限便可 ret = re.findall('www.(?:baidu|oldboy).com', 'www.oldboy.com') print(ret) # ['www.oldboy.com']

坑2:split⾥也有⼀個坑

ret=re.split("\d+","eva3egon4yuan") print(ret) #結果 : ['eva', 'egon', 'yuan'] ret=re.split("(\d+)","eva3egon4yuan") print(ret) #結果 : ['eva', '3', 'egon', '4', 'yuan'] #在匹配部分加上()以後所切出的結果是不一樣的, #沒有()的沒有保留所匹配的項,可是有()的卻可以保留了匹配的項, #這個在某些須要保留匹配部分的使⽤過程是⾮常重要的。
lst = re.split("[ab]", "alex is a good man and have big bande") print(lst) # 跟平時切割的效果同樣 lst = re.split("([ab])", "alex is a good man and have big bande") # 會保留你切割位置的東西 print(lst) # ['', 'a', 'lex is ', 'a', ' good m', 'a', 'n ', 'a', 'nd h', 'a', 've ', 'b', 'ig ', 'b', '', 'a', 'nde'] 

3、簡單爬蟲練習

()這種優先級的問題有時候會幫咱們完成不少功能.

fe1: 來看⼀個比較複雜的例⼦,

內含幹掉數字簽名證書的方法:

import re from urllib.request import urlopen import ssl # ⼲掉數字簽名證書 ssl._create_default_https_context = ssl._create_unverified_context def getPage(url): response = urlopen(url) return response.read().decode('utf-8') def parsePage(s): ret = re.findall( '<div class="item">.*?<div class="pic">.*?<em .*?>(?P<id>\d+).*? <span class="title">(?P<title>.*?)</span>' '.*?<span class="rating_num" .*?>(?P<rating_num>.*?)</span>.*?<span> (?P<comment_num>.*?)評價</span>', s, re.S) return ret def main(num): url = 'https://movie.douban.com/top250?start=%s&filter=' % num response_html = getPage(url) ret = parsePage(response_html) print(ret) count = 0 for i in range(10): # 10⻚ main(count) count += 25

fe2: 簡單的爬蟲

from urllib import request import re url = "https://www.dytt8.net/html/gndy/dyzz/20181114/57791.html" # 拿到爬的連接 content = request.urlopen(url).read().decode("gbk") # 讀取連接的json # print(content) obj = re.compile(r'<div id="Zoom">.*?◎譯  名(?P<yiming>.*?)<br />◎片  名(?P<pianming>.*?)<br />◎年  代.*?(?P<nianfen>.*?)<br />' r'.*?<td style="WORD-WRAP: break-word" bgcolor="#fdfddf"><a href="(?P<url>.*?)">', re.S) # re.S去掉,.的換行 res = obj.search(content) print(res.group("yiming")) print(res.group("pianming")) print(res.group("nianfen")) print(res.group("url"))

fe3:多個分頁信息的爬蟲

from urllib.request import urlopen import re obj = re.compile(r'<div class="item">.*?<spanclass="title">(?P<name>.*?)</span>.*?導演: (?P<daoyan>.*?) .*?<span class="rating_num" property="v:average">(?P<fen>.*?)</span>.*?<span>(?P<ren>.*?)人評價</span>', re.S) def getContent(url): content = urlopen(url).read().decode("utf-8") return content def parseContent(content): it = obj.finditer(content) # 把頁面中全部匹配的內容進行匹配. 返回迭代器 for el in it: yield { "name":el.group("name"), "daoyan":el.group("daoyan"), "ren":el.group("ren"), "fen":el.group("fen") } for i in range(10): url = "https://movie.douban.com/top250?start=%s&filter=" % i*25 g = parseContent(getContent(url)) f = open("movie.txt", mode="a", encoding="utf-8") for el in g: f.write(str(el)+"\n") f.close()

總結:

正則表達式和re模塊就說這麼多. 若是要把正則全部的內容所有講清楚講明⽩, ⾄少要⼀周以上的時間. 對於咱們⽇常使⽤⽽⾔. 上述知識點已經夠⽤了. 若是碰到⼀些極端狀況建議想辦法分部處理. 先對字符串進⾏拆分. 而後再考慮⽤正則.

相關文章
相關標籤/搜索