一、協程(重點:gevent) 二、IO多路複用
本節的主題是基於單線程來實現併發,即只用一個主線程(很明顯可利用的cpu只有一個)狀況下實現併發, 爲此咱們須要先回顧下併發的本質:切換+保存狀態
cpu正在運行一個任務,會在兩種狀況下切走去執行其餘的任務(切換由操做系統強制控制),
一種狀況是該任務發生了阻塞,另一種狀況是該任務計算的時間過長或有一個優先級更高的程序替代了它python
協程本質上就是一個線程,之前線程任務的切換是由操做系統控制的,遇到I/O自動切換,
如今咱們用協程的目的就是較少操做系統切換的開銷(開關線程,建立寄存器、堆棧等,在他們之間進行切換等),
在咱們本身的程序裏面來控制任務的切換。linux
ps:在介紹進程理論時,說起進程的三種執行狀態,而線程纔是執行單位,因此也能夠將上圖理解爲線程的三種狀態nginx
若是多個任務都是純計算的,這種切換反而會下降效率。 爲此咱們能夠基於yield來驗證。 yield自己就是一種在單線程下能夠保存任務運行狀態的方法,咱們來簡單複習一下: #1 yiled能夠保存狀態,yield的狀態保存與操做系統的保存線程狀態很像,可是yield是代碼級別控制的,更輕量級 #2 send能夠把一個函數的結果傳給另一個函數,以此實現單線程內程序之間的切換
經過yield實現任務切換+保存狀態git
單純的切換反而會下降運行效率程序員
那好,我就本身搞成一個線程讓你去執行,省去你切換線程的時間,我本身切換比你切換要快不少,避免了不少的開銷, 對於單線程下,咱們不可避免程序中出現io操做,但若是咱們能在本身的程序中(即用戶程序級別,而非操做系統級別) 控制單線程下的多個任務能在一個任務遇到io阻塞時就切換到另一個任務去計算, 這樣就保證了該線程可以最大限度地處於就緒態,即隨時均可以被cpu執行的狀態, 至關於咱們在用戶程序級別將本身的io操做最大限度地隱藏起來,從而能夠迷惑操做系統, 讓其看到:該線程好像是一直在計算,io比較少,從而更多的將cpu的執行權限分配給咱們的線程。
協程的本質就是在單線程下,由用戶本身控制一個任務遇到io阻塞了就切換另一個任務去執行,
以此來提高效率。爲了實現它,咱們須要找尋一種能夠同時知足如下條件的解決方案:github
#1. 能夠控制多個任務之間的切換,切換以前將任務的狀態保存下來,以便從新運行時,能夠基於暫停的位置繼續執行。 #2. 做爲1的補充:能夠檢測io操做,在遇到io操做的狀況下才發生切換
協程:是單線程下的併發,又稱微線程,纖程。英文名Coroutine。 一句話說明什麼是線程:協程是一種用戶態的輕量級線程,即協程是由用戶程序本身控制調度的。 對比操做系統控制線程的切換,用戶在單線程內控制協程的切換 協程在操做系統上是沒有這個概念的,是程序員們本身叫的
1. python的線程屬於內核級別的,即由操做系統控制調度 (如單線程遇到io或執行時間過長就會被迫交出cpu執行權限,切換其餘線程運行) 2. 單線程內開啓協程,一旦遇到io,就會從應用程序級別(而非操做系統)控制切換, 以此來提高效率(!!!非io操做的切換與效率無關)
1. 協程的切換開銷更小,屬於程序級別的切換,操做系統徹底感知不到,於是更加輕量級 2. 單線程內就能夠實現併發的效果,最大限度地利用cpu
1. 協程的本質是單線程下,沒法利用多核, 能夠是一個程序開啓多個進程,每一個進程內開啓多個線程,每一個線程內開啓協程 2. 協程指的是單個線程,於是一旦協程出現阻塞,將會阻塞整個線程
一、必須在只有一個單線程裏實現併發 二、修改共享數據不需加鎖 三、用戶程序裏本身保存多個控制流的上下文棧 四、附加:一個協程遇到IO操做自動切換到其它協程 (如何實現檢測IO,yield、greenlet都沒法實現,就用到了gevent模塊(select機制))
若是咱們在單個線程內有20個任務,要想實如今多個任務之間切換, 使用yield生成器的方式過於麻煩(須要先獲得初始化一次的生成器,而後再調用send。。。很是麻煩), 而使用greenlet模塊能夠很是簡單地實現這20個任務直接的切換 #安裝 pip3 install greenlet
單純的切換(在沒有io的狀況下或者沒有重複開闢內存空間的操做),反而會下降程序的執行速度
效率對比web
greenlet只是提供了一種比generator更加便捷的切換方式, 當切到一個任務執行時若是遇到io,那就原地阻塞,仍然是沒有解決遇到IO自動切換來提高效率的問題。
#安裝 pip3 install gevent
Gevent 是一個第三方庫,能夠輕鬆經過gevent實現併發同步或異步編程,
在gevent中用到的主要模式是Greenlet,
它是以C擴展模塊形式接入Python的輕量級協程。
Greenlet所有運行在主程序操做系統進程的內部,但它們被協做式地調度。編程
協程:同步異步對比數組
協程應用:爬蟲服務器
將上面的程序最後加上一段串行的代碼看看效率: 若是你的程序不須要過高的效率,那就不用什麼併發啊協程啊之類的東西。
經過gevent實現單線程下的socket併發(from gevent import monkey;monkey.patch_all() 必定要放到導入socket模塊以前,不然gevent沒法識別socket的阻塞)
一個網絡請求裏面通過多個時間延遲time
服務端
客戶端
多線程併發多個客戶端,去請求上面的服務端是沒問題的
同步(synchronous) IO和異步(asynchronous) IO,阻塞(blocking) IO和非阻塞(non-blocking)IO分別是什麼, 到底有什麼區別?這個問題其實不一樣的人給出的答案均可能不一樣, 好比wiki,就認爲asynchronous IO和non-blocking IO是一個東西。 這實際上是由於不一樣的人的知識背景不一樣,而且在討論這個問題的時候上下文(context)也不相同。 因此,爲了更好的回答這個問題,我先限定一下本文的上下文。
本文討論的背景是Linux環境下的network IO。
本文最重要的參考文獻是Richard Stevens的「UNIX® Network Programming Volume 1, Third Edition: The Sockets Networking 」,
6.2節「I/O Models 」,Stevens在這節中詳細說明了各類IO的特色和區別,
若是英文夠好的話,推薦直接閱讀。
Stevens的文風是有名的深刻淺出,因此不用擔憂看不懂。本文中的流程圖也是截取自參考文獻。
* blocking IO 阻塞IO
* nonblocking IO 非阻塞IO
* IO multiplexing IO多路複用
* signal driven IO 信號驅動IO(不常見,不講)
* asynchronous IO 異步IO
由signal driven IO(信號驅動IO)在實際中並不經常使用,因此主要介紹其他四種IO Model。
再說一下IO發生時涉及的對象和步驟。對於一個network IO (這裏咱們以read、recv舉例),它會涉及到兩個系統對象,一個是調用這個IO的process (or thread),另外一個就是系統內核(kernel)。當一個read/recv讀數據的操做發生時,該操做會經歷兩個階段:
1)等待數據準備 (Waiting for the data to be ready) 2)將數據從內核拷貝到進程中(Copying the data from the kernel to the process)
記住這兩點很重要,由於這些IO模型的區別就是在兩個階段上各有不一樣的狀況。
就是咱們日常寫的input,的代碼,這樣的阻塞 在linux中,默認狀況下全部的socket都是blocking, 一個典型的讀操做流程大概是這樣:(recvfrom和tcp裏面的recv在這些IO模型裏面是同樣的)
上面的圖形分析:兩個階段的阻塞
因此,blocking IO的特色就是在IO執行的兩個階段(等待數據和拷貝數據兩個階段)都被block了。
這裏咱們回顧一下同步/異步/阻塞/非阻塞:
同步:提交一個任務以後要等待這個任務執行完畢
異步:只管提交任務,不等待這個任務執行完畢就能夠去作其餘的事情
阻塞:recv、recvfrom、accept,線程階段 運行狀態–>阻塞狀態–>就緒
非阻塞:沒有阻塞狀態
在一個線程的IO模型中,咱們recv的地方阻塞,咱們就開啓多線程,
可是無論你開啓多少個線程,這個recv的時間是否是沒有被規避掉,
無論是多線程仍是多進程都沒有規避掉這個IO時間。
Linux下,能夠經過設置socket使其變爲non-blocking。 當對一個non-blocking socket執行讀操做時,流程是這個樣子: 在非阻塞式IO中,用戶進程實際上是須要不斷的主動詢問kernel數據準備好了沒有。 雖然咱們上面的代碼經過設置非阻塞,規避了IO操做,可是非阻塞IO模型毫不被推薦。
非阻塞IO模型服務端
非阻塞IO模型客戶端
非阻塞IO示例詳細版
雖然咱們上面的代碼經過設置非阻塞,規避了IO操做,可是非阻塞IO模型毫不被推薦。
咱們不可否則其優勢:可以在等待任務完成的時間裏幹其餘活了
(包括提交其餘任務,也就是 「後臺」 能夠有多個任務在「」同時「」執行)。
1. 循環調用recv()將大幅度推高CPU佔用率; 這也是咱們在代碼中留一句time.sleep(2)的緣由,不然在低配主機下極容易出現卡機狀況 2. 任務完成的響應延遲增大了,由於每過一段時間纔去輪詢一次read操做, 而任務可能在兩次輪詢之間的任意時間完成。這會致使總體數據吞吐量的下降。 此外,在這個方案中recv()更多的是起到檢測「操做是否完成」的做用, 實際操做系統提供了更爲高效的檢測「操做是否完成「做用的接口, 例如select()多路複用模式,能夠一次檢測多個鏈接是否活躍。
先看解釋圖,裏面的select就像個代理。 IO multiplexing這個詞可能有點陌生,可是若是我說select/epoll,大概就都能明白了。 有些地方也稱這種IO方式爲事件驅動IO(event driven IO)。 咱們都知道,select/epoll的好處就在於單個process就能夠同時處理多個網絡鏈接的IO。 它的基本原理就是select/epoll這個function會不斷的輪詢所負責的全部socket, 當某個socket有數據到達了,就通知用戶進程。它的流程如圖:
1. 若是處理的鏈接數不是很高的話,使用select/epoll的web server不必定比使用multi-threading + blocking IO的web server性能更好, 可能延遲還更大。select/epoll的優點並非對於單個鏈接能處理得更快,而是在於能處理更多的鏈接。 2. 在多路複用模型中,對於每個socket,通常都設置成爲non-blocking,可是, 如上圖所示,整個用戶的process實際上是一直被block的。 只不過process是被select這個函數block,而不是被socket IO給block。
select的優點在於能夠處理多個鏈接,不適用於單個鏈接
io多路複用服務端
io多路複用客戶端
select網絡IO模型的示例代碼詳細解釋版