注意python
1.不能無限的開進程,不能無限的開線程
最經常使用的就是開進程池,開線程池。其中回調函數很是重要
回調函數其實能夠做爲一種編程思想,誰好了誰就去掉
2.只要你用併發,就會有鎖的問題,可是你不能一直去本身加鎖吧
那麼咱們就用QUEUE,這樣還解決了自動加鎖的問題
由Queue延伸出的一個點也很是重要的概念。之後寫程序也會用到
這個思想。就是生產者與消費者問題git
1、Python標準模塊--concurrent.futures(併發將來)github
concurent.future模塊須要瞭解的編程
1.concurent.future模塊是用來建立並行的任務,提供了更高級別的接口, 爲了異步執行調用 2.concurent.future這個模塊用起來很是方便,它的接口也封裝的很是簡單 3.concurent.future模塊既能夠實現進程池,也能夠實現線程池 4.模塊導入進程池和線程池 from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor 還能夠導入一個Executor,可是你別這樣導,這個類是一個抽象類 抽象類的目的是規範他的子類必須有某種方法(而且抽象類的方法必須實現),可是抽象類不能被實例化 5. p = ProcessPoolExecutor(max_works)對於進程池若是不寫max_works:默認的是cpu的數目,默認是4個 p = ThreadPoolExecutor(max_works)對於線程池若是不寫max_works:默認的是cpu的數目*5 6.若是是進程池,獲得的結果若是是一個對象。咱們得用一個.get()方法獲得結果,可是如今用了concurent.future模塊,咱們能夠用obj.result方法 p.submit(task,i) #至關於apply_async異步方法 p.shutdown() #默認有個參數wite=True (至關於close和join)
2、線程池數組
進程池:就是在一個進程內控制必定個數的線程
基於concurent.future模塊的進程池和線程池 (他們的同步執行和異步執行是同樣的)
# 基於concurrent.futures模塊的進程池 # 1.同步執行-------------- from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor import os,time,random def task(n): print('[%s] is running'%os.getpid()) time.sleep(random.randint(1,3)) #I/O密集型的,,通常用線程,用了進程耗時長 return n**2 if __name__ == '__main__': start = time.time() p = ProcessPoolExecutor() for i in range(10): #如今是開了10個任務, 那麼若是是上百個任務呢,就不能無線的開進程,那麼就得考慮控制 # 線程數了,那麼就得考慮到池了 obj = p.submit(task,i).result() #至關於apply同步方法 p.shutdown() #至關於close和join方法 print('='*30) print(time.time() - start) #17.36499309539795 # 2.異步執行----------- # from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor # import os,time,random # def task(n): # print('[%s] is running'%os.getpid()) # time.sleep(random.randint(1,3)) #I/O密集型的,,通常用線程,用了進程耗時長 # return n**2 # if __name__ == '__main__': # start = time.time() # p = ProcessPoolExecutor() # l = [] # for i in range(10): #如今是開了10個任務, 那麼若是是上百個任務呢,就不能無線的開進程,那麼就得考慮控制 # # 線程數了,那麼就得考慮到池了 # obj = p.submit(task,i) #至關於apply_async()異步方法 # l.append(obj) # p.shutdown() #至關於close和join方法 # print('='*30) # print([obj.result() for obj in l]) # print(time.time() - start) #5.362306594848633
#基於concurrent.futures模塊的線程池 from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor from threading import currentThread import os,time,random def task(n): print('%s:%s is running'%(currentThread().getName(),os.getpid())) #看到的pid都是同樣的,由於線程是共享了一個進程 time.sleep(random.randint(1,3)) #I/O密集型的,,通常用線程,用了進程耗時長 return n**2 if __name__ == '__main__': start = time.time() p = ThreadPoolExecutor() #線程池 #若是不給定值,默認cup*5 l = [] for i in range(10): #10個任務 # 線程池效率高了 obj = p.submit(task,i) #至關於apply_async異步方法 l.append(obj) p.shutdown() #默認有個參數wite=True (至關於close和join) print('='*30) print([obj.result() for obj in l]) print(time.time() - start) #3.001171827316284
應用線程池(下載網頁並解析)併發
from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor import requests import time,os def get_page(url): print('<%s> is getting [%s]'%(os.getpid(),url)) response = requests.get(url) if response.status_code==200: #200表明狀態:下載成功了 return {'url':url,'text':response.text} def parse_page(res): res = res.result() print('<%s> is getting [%s]'%(os.getpid(),res['url'])) with open('db.txt','a') as f: parse_res = 'url:%s size:%s\n'%(res['url'],len(res['text'])) f.write(parse_res) if __name__ == '__main__': # p = ThreadPoolExecutor() p = ProcessPoolExecutor() l = [ 'http://www.baidu.com', 'http://www.baidu.com', 'http://www.baidu.com', 'http://www.baidu.com', ] for url in l: res = p.submit(get_page,url).add_done_callback(parse_page) #這裏的回調函數拿到的是一個對象。得 # 先把返回的res獲得一個結果。即在前面加上一個res.result() #誰好了誰去掉回調函數 # 回調函數也是一種編程思想。不只開線程池用,開線程池也用 p.shutdown() #至關於進程池裏的close和join print('主',os.getpid())
map函數的應用app
# map函數舉例 obj= map(lambda x:x**2 ,range(10)) print(list(obj)) #運行結果[0, 1, 4, 9, 16, 25, 36, 49, 64, 81]
能夠和上面的開進程池/線程池的對比着看,就能發現map函數的強大了dom
#map函數應用 # 咱們的那個p.submit(task,i)和map函數的原理相似。咱們就 # 能夠用map函數去代替。更減縮了代碼 from concurrent.futures import ProcessPoolExecutor,ThreadPoolExecutor import os,time,random def task(n): print('[%s] is running'%os.getpid()) time.sleep(random.randint(1,3)) #I/O密集型的,,通常用線程,用了進程耗時長 return n**2 if __name__ == '__main__': p = ProcessPoolExecutor() obj = p.map(task,range(10)) p.shutdown() #至關於close和join方法 print('='*30) print(obj) #返回的是一個迭代器 print(list(obj))
3、協程介紹異步
協程:單進程下實現併發(提升效率),協程實質上是對單線程在時間上的充分利用,尤爲是在IO密集型任務是,遇到IO切換到別的任務,返回結果由回到函數處理socket
說到協成,咱們先說一下協程聯想到的知識點
切換關鍵的一點是:保存狀態(從原來停留的地方繼續切) return:只能執行一次,結束函數的標誌 yield:函數中但凡是有yield,這個函數的執行結果就變成了一個生成器, 生成器本質就是一個迭代器,那麼迭代器怎麼用呢?用一個next()方法 1.yield語句的形式:yield 1 yield功能1:能夠用來返回值,能夠返回屢次值 yield功能2:能夠吧函數暫停住,保存原來的狀態 2.yield表達式的形式:x = yieldsend能夠吧一個函數的結果傳給另外一個函數,以此實現單線程內程序之間的切換 send()要想用就得先next()一下 可是要用send至少要用兩個yield
yield複習
# yield功能(能夠吧函數暫停住,保存原來的狀態)-------------- def f1(): print('first') yield 1 print('second') yield 2 print('third') yield 3 # print(f1()) #加了yield返回的是一個生成器 g = f1() print(next(g)) #當碰見了yield的時候就返回一個值,並且保存原來的狀態 print(next(g)) #當碰見了yield的時候就返回一個值 print(next(g)) #當碰見了yield的時候就返回一個值
# yield表達式(對於表達式的yield)-------------------- import time def wrapper(func): def inner(*args,**kwargs): ret =func(*args,**kwargs) next(ret) return ret return inner @wrapper def consumer(): while True: x= yield print(x) def producter(target): '''生產者造值''' # next(g) #至關於g.send(None) for i in range(10): time.sleep(0.5) target.send(i)#要用send就得用兩個yield producter(consumer())
引子
本節主題是實現單線程下的併發,即只在一個主線程,而且很明顯的是,可利用的cpu只有一個狀況下實現併發,
爲此咱們須要先回顧下併發的本質:切換+保存狀態
cpu正在運行一個任務,會在兩種狀況下切走去執行其餘的任務(切換由操做系統強制控制),
一種狀況是該任務發生了阻塞,另一種狀況是該任務計算的時間過長
其中第二種狀況並不能提高效率,只是爲了讓cpu可以雨露均沾,實現看起來你們都被執行的效果,若是多個程序都是純計算任務,這種切換反而會下降效率。爲此咱們能夠基於yield來驗證。yield自己就是一種在單線程下能夠保存任務運行狀態的方法,咱們來簡單複習一下:
yiled能夠保存狀態,
yield
的狀態保存與操做系統的保存線程狀態很像,可是
yield
是代碼級別控制的,更輕量級
send能夠把一個函數的結果傳給另一個函數,以此實現單線程內程序之間的切換
單純的切反而會影響效率
#串行執行 import time def consumer(res): '''任務1:接收數據,處理數據''' pass def producer(): '''任務2:生產數據''' res=[] for i in range(10000000): res.append(i) return res start=time.time() #串行執行 res=producer() consumer(res) stop=time.time() print(stop-start) #1.5536692142486572
# 基於yield併發執行 import time def wrapper(func): def inner(*args,**kwargs): ret =func(*args,**kwargs) next(ret) return ret return inner @wrapper def consumer(): while True: x= yield print(x) def producter(target): '''生產者造值''' # next(g) #至關於g.send(None) for i in range(10): time.sleep(0.5) target.send(i)#要用send就得用兩個yield producter(consumer())
對於單線程下,咱們不可避免程序中出現io操做,但若是咱們能在本身的程序中(即用戶程序級別,而非操做系統級別)控制單線程下多個任務能遇到io就切換,這樣就保證了該線程可以最大限度地處於就緒態,即隨時均可以被cpu執行的狀態,至關於咱們在用戶程序級別將本身的io操做最大限度地隱藏起來,對於操做系統來講:這哥們(該線程)好像是一直處於計算過程的,io比較少。
協程的本質就是在單線程下,由用戶本身控制一個任務遇到io阻塞了就切換另一個任務去執行,以此來提高效率。
所以咱們須要找尋一種能夠同時知足如下條件的解決方案:
1. 能夠控制多個任務之間的切換,切換以前將任務的狀態保存下來(從新運行時,能夠基於暫停的位置繼續)
2. 做爲1的補充:能夠檢測io操做,在遇到io操做的狀況下才發生切換
4、Greenlet
Greenlet模塊和yield沒有什麼區別,就只是單純的切,跟效率無關。
只不過比yield更好一點,切的時候方便一點。可是仍然沒有解決效率
Greenlet可讓你在多個任務之間來回的切
# greenlet示例 from greenlet import greenlet import time def eat(name): print('%s eat 1' %name) time.sleep(10) #當遇到IO的時候它也沒有切,這就得用gevent了 g2.switch('egon') print('%s eat 2' %name) g2.switch() def play(name): print('%s play 1' %name) g1.switch() print('%s play 2' %name) g1=greenlet(eat) g2=greenlet(play) g1.switch('egon')#能夠在第一次switch時傳入參數,之後都不須要
因此上面的方法都不可行,那麼這就用到了Gevert ,也就是協程。就解決了單線程實現併發的問題,還提高了效率
5、Gevent介紹
Gevent 是一個第三方庫,能夠輕鬆經過gevent實現併發同步或異步編程,在gevent中用到的主要模式是Greenlet,
它是以C擴展模塊形式接入Python的輕量級協程。 Greenlet所有運行在主程序操做系統進程的內部,但它們被協做式地調度。
#用法 g1=gevent.spawn(func,1,,2,3,x=4,y=5)建立一個協程對象g1,spawn括號內第一個參數是函數名,如eat,後面能夠有多個參數,能夠是位置實參或關鍵字實參,都是傳給函數eat的 g2=gevent.spawn(func2) g1.join() #等待g1結束 g2.join() #等待g2結束 #或者上述兩步合做一步:gevent.joinall([g1,g2]) g1.value#拿到func1的返回值
舉例;
# gevent的一些方法(重要) from gevent import monkey;monkey.patch_all() import gevent import time def eat(name): print('%s eat 1' %name) time.sleep(2) #咱們用等待的時間模擬IO阻塞 ''' 在gevent模塊裏面要用gevent.sleep(2)表示等待的時間 然而咱們常常用time.sleep()用習慣了,那麼有些人就想着 能夠用time.sleep(),那麼也不是不能夠。要想用,就得在 最上面導入from gevent import monkey;monkey.patch_all()這句話 若是不導入直接用time.sleep(),就實現不了單線程併發的效果了 ''' # gevent.sleep(2) print('%s eat 2' %name) return 'eat' def play(name): print('%s play 1' %name) time.sleep(3) # gevent.sleep(3) print('%s play 2' %name) return 'paly' #當有返回值的時候,gevent模塊也提供了返回結果的操做 start = time.time() g1 = gevent.spawn(eat,'egon') #執行任務 g2 = gevent.spawn(play,'egon') #g1和g2的參數能夠不同 # g1.join() #等待g1 # g2.join() #等待g2 #上面等待的兩句也能夠這樣寫 gevent.joinall([g1,g2]) print('主',time.time()-start) #3.001171588897705 print(g1.value) print(g2.value)
須要說明的是:
gevent.sleep(2)模擬的是gevent能夠識別的io阻塞,
而time.sleep(2)或其餘的阻塞,gevent是不能直接識別的須要用下面一行代碼,打補丁,就能夠識別了
from gevent import monkey;monkey.patch_all()必須放到被打補丁者的前面,如time,socket模塊以前
或者咱們乾脆記憶成:要用gevent,須要將from gevent import monkey;monkey.patch_all()放到文件的開頭
6、Gevent之同步於異步
from gevent import spawn,joinall,monkey;monkey.patch_all() import time def task(pid): """ Some non-deterministic task """ time.sleep(0.5) print('Task %s done' % pid) def synchronous(): for i in range(10): task(i) def asynchronous(): g_l=[spawn(task,i) for i in range(10)] joinall(g_l) if __name__ == '__main__': print('Synchronous:') synchronous() print('Asynchronous:') asynchronous() #上面程序的重要部分是將task函數封裝到Greenlet內部線程的gevent.spawn。 初始化的greenlet列表存放在數組threads中,此數組被傳給gevent.joinall 函數,後者阻塞當前流程,並執行全部給定的greenlet。執行流程只會在 全部greenlet執行完後纔會繼續向下走。
7、Gevent之應用舉例一
#協程應用爬蟲 from gevent import monkey;monkey.patch_all() #打補丁 import gevent import requests import time def get_page(url): print('get :%s'%url) response = requests.get(url) if response.status_code==200: #下載成功的狀態 print('%d bytes received from:%s'%(len(response.text),url)) start=time.time() gevent.joinall([ gevent.spawn(get_page,'http://www.baidu.com'), gevent.spawn(get_page, 'https://www.yahoo.com/'), gevent.spawn(get_page, 'https://github.com/'), ]) stop = time.time() print('run time is %s' %(stop-start))
#協程應用爬蟲加了回調函數的 from gevent import joinall,spawn,monkey;monkey.patch_all() import requests from threading import current_thread def parse_page(res): print('%s PARSE %s' %(current_thread().getName(),len(res))) def get_page(url,callback=parse_page): print('%s GET %s' %(current_thread().getName(),url)) response=requests.get(url) if response.status_code == 200: callback(response.text) if __name__ == '__main__': urls=[ 'https://www.baidu.com', 'https://www.taobao.com', 'https://www.openstack.org', ] tasks=[] for url in urls: tasks.append(spawn(get_page,url)) joinall(tasks)
8、Gevent之應用舉例二
也能夠利用協程實現併發
# 服務端利用協程 #!usr/bin/env python # -*- coding:utf-8 -*- from gevent import monkey;monkey.patch_all() import gevent from socket import * print('start running...') def talk(conn,addr): while True: data = conn.recv(1024) print('%s:%s %s'%(addr[0],addr[1],data)) conn.send(data.upper()) conn.close() def server(ip,duankou): server = socket(AF_INET, SOCK_STREAM) server.setsockopt(SOL_SOCKET, SO_REUSEADDR, 1) server.bind((ip,duankou)) server.listen(5) while True: conn,addr = server.accept() #等待連接 gevent.spawn(talk,conn,addr) #異步執行 (p =Process(target=talk,args=(coon,addr)) # p.start())至關於開進程裏的這兩句 server.close() if __name__ == '__main__': server('127.0.0.1',8081)
#客戶端開了100個進程 #!usr/bin/env python # -*- coding:utf-8 -*- from multiprocessing import Process from gevent import monkey;monkey.patch_all() from socket import * def client(ip,duankou): client = socket(AF_INET, SOCK_STREAM) client.connect((ip,duankou)) while True: client.send('hello'.encode('utf-8')) data = client.recv(1024) print(data.decode('utf-8')) if __name__ == '__main__': for i in range(100): p = Process(target=client,args=(('127.0.0.1',8081))) p.start()