前言:博主在剛接觸Python的時候時常聽到GIL這個詞,而且發現這個詞常常和Python沒法高效的實現多線程劃上等號。本着不光要知其然,還要知其因此然的研究態度,博主蒐集了各方面的資料,花了一週內幾個小時的閒暇時間深刻理解了下GIL,並概括成此文,也但願讀者能經過次本文更好且客觀的理解GIL。html
文章歡迎轉載,但轉載時請保留本段文字,並置於文章的頂部 做者:盧鈞軼(cenalulu) 本文原文地址:http://cenalulu.github.io/python/gil-in-python/python
首先須要明確的一點是GIL
並非Python的特性,它是在實現Python解析器(CPython)時所引入的一個概念。就比如C++是一套語言(語法)標準,可是能夠用不一樣的編譯器來編譯成可執行代碼。有名的編譯器例如GCC,INTEL C++,Visual C++等。Python也同樣,一樣一段代碼能夠經過CPython,PyPy,Psyco等不一樣的Python執行環境來執行。像其中的JPython就沒有GIL。然而由於CPython是大部分環境下默認的Python執行環境。因此在不少人的概念裏CPython就是Python,也就想固然的把GIL
歸結爲Python語言的缺陷。因此這裏要先明確一點:GIL並非Python的特性,Python徹底能夠不依賴於GILlinux
那麼CPython實現中的GIL又是什麼呢?GIL全稱Global Interpreter Lock
爲了不誤導,咱們仍是來看一下官方給出的解釋:git
In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple native threads from executing Python bytecodes at once. This lock is necessary mainly because CPython’s memory management is not thread-safe. (However, since the GIL exists, other features have grown to depend on the guarantees that it enforces.)github
好吧,是否是看上去很糟糕?一個防止多線程併發執行機器碼的一個Mutex,乍一看就是個BUG般存在的全局鎖嘛!別急,咱們下面慢慢的分析。算法
因爲物理上得限制,各CPU廠商在覈心頻率上的比賽已經被多核所取代。爲了更有效的利用多核處理器的性能,就出現了多線程的編程方式,而隨之帶來的就是線程間數據一致性和狀態同步的困難。即便在CPU內部的Cache也不例外,爲了有效解決多份緩存之間的數據同步時各廠商花費了很多心思,也不可避免的帶來了必定的性能損失。編程
Python固然也逃不開,爲了利用多核,Python開始支持多線程。而解決多線程之間數據完整性和狀態同步的最簡單方法天然就是加鎖。 因而有了GIL這把超級大鎖,而當愈來愈多的代碼庫開發者接受了這種設定後,他們開始大量依賴這種特性(即默認python內部對象是thread-safe的,無需在實現時考慮額外的內存鎖和同步操做)。緩存
慢慢的這種實現方式被發現是蛋疼且低效的。但當你們試圖去拆分和去除GIL的時候,發現大量庫代碼開發者已經重度依賴GIL而很是難以去除了。有多難?作個類比,像MySQL這樣的「小項目」爲了把Buffer Pool Mutex這把大鎖拆分紅各個小鎖也花了從5.5到5.6再到5.7多個大版爲期近5年的時間,而且仍在繼續。MySQL這個背後有公司支持且有固定開發團隊的產品走的如此艱難,那又更況且Python這樣核心開發和代碼貢獻者高度社區化的團隊呢?多線程
因此簡單的說GIL的存在更多的是歷史緣由。若是推到重來,多線程的問題依然仍是要面對,可是至少會比目前GIL這種方式會更優雅。併發
從上文的介紹和官方的定義來看,GIL無疑就是一把全局排他鎖。毫無疑問全局鎖的存在會對多線程的效率有不小影響。甚至就幾乎等於Python是個單線程的程序。 那麼讀者就會說了,全局鎖只要釋放的勤快效率也不會差啊。只要在進行耗時的IO操做的時候,能釋放GIL,這樣也仍是能夠提高運行效率的嘛。或者說再差也不會比單線程的效率差吧。理論上是這樣,而實際上呢?Python比你想的更糟。
下面咱們就對比下Python在多線程和單線程下得效率對比。測試方法很簡單,一個循環1億次的計數器函數。一個經過單線程執行兩次,一個多線程執行。最後比較執行總時間。測試環境爲雙核的Mac pro。注:爲了減小線程庫自己性能損耗對測試結果帶來的影響,這裏單線程的代碼一樣使用了線程。只是順序的執行兩次,模擬單線程。
#! /usr/bin/pythonfrom threading import Threadimport timedef my_counter(): i = 0 for _ in range(100000000): i = i + 1 return Truedef main(): thread_array = {} start_time = time.time() for tid in range(2): t = Thread(target=my_counter) t.start() t.join() end_time = time.time() print("Total time: {}".format(end_time - start_time))if __name__ == '__main__': main()
#! /usr/bin/pythonfrom threading import Threadimport timedef my_counter(): i = 0 for _ in range(100000000): i = i + 1 return Truedef main(): thread_array = {} start_time = time.time() for tid in range(2): t = Thread(target=my_counter) t.start() thread_array[tid] = t for i in range(2): thread_array[i].join() end_time = time.time() print("Total time: {}".format(end_time - start_time))if __name__ == '__main__': main()
下圖就是測試結果()
能夠看到python在多線程的狀況下竟然比單線程整整慢了45%。按照以前的分析,即便是有GIL全局鎖的存在,串行化的多線程也應該和單線程有同樣的效率纔對。那麼怎麼會有這麼糟糕的結果呢?
讓咱們經過GIL的實現原理來分析這其中的緣由。
按照Python社區的想法,操做系統自己的線程調度已經很是成熟穩定了,沒有必要本身搞一套。因此Python的線程就是C語言的一個pthread,並經過操做系統調度算法進行調度(例如linux是CFS)。爲了讓各個線程可以平均利用CPU時間,python會計算當前已執行的微代碼數量,達到必定閾值後就強制釋放GIL。而這時也會觸發一次操做系統的線程調度(固然是否真正進行上下文切換由操做系統自主決定)。
僞代碼
while True: acquire GIL for i in 1000: do something release GIL /* Give Operating System a chance to do thread scheduling */
這種模式在只有一個CPU核心的狀況下毫無問題。任何一個線程被喚起時都能成功得到到GIL(由於只有釋放了GIL纔會引起線程調度)。但當CPU有多個核心的時候,問題就來了。從僞代碼能夠看到,從release GIL
到acquire GIL
之間幾乎是沒有間隙的。因此當其餘在其餘核心上的線程被喚醒時,大部分狀況下主線程已經又再一次獲取到GIL了。這個時候被喚醒執行的線程只能白白的浪費CPU時間,看着另外一個線程拿着GIL歡快的執行着。而後達到切換時間後進入待調度狀態,再被喚醒,再等待,以此往復惡性循環。
PS:固然這種實現方式是原始而醜陋的,Python的每一個版本中也在逐漸改進GIL和線程調度之間的互動關係。例如先嚐試持有GIL在作線程上下文切換,在IO等待時釋放GIL等嘗試。可是沒法改變的是GIL的存在使得操做系統線程調度的這個原本就昂貴的操做變得更奢侈了。 關於GIL影響的擴展閱讀
爲了直觀的理解GIL對於多線程帶來的性能影響,這裏直接借用的一張測試結果圖(見下圖)。圖中表示的是兩個線程在雙核CPU上得執行狀況。兩個線程均爲CPU密集型運算線程。綠色部分表示該線程在運行,且在執行有用的計算,紅色部分爲線程被調度喚醒,可是沒法獲取GIL致使沒法進行有效運算等待的時間。 由圖可見,GIL的存在致使多線程沒法很好的當即多核CPU的併發處理能力。
那麼Python的IO密集型線程可否從多線程中受益呢?咱們來看下面這張測試結果。顏色表明的含義和上圖一致。白色部分表示IO線程處於等待。可見,當IO線程收到數據包引發終端切換後,仍然因爲一個CPU密集型線程的存在,致使沒法獲取GIL鎖,從而進行無盡的循環等待。
簡單的總結下就是:Python的多線程在多核CPU上,只對於IO密集型計算產生正面效果;而當有至少有一個CPU密集型線程存在,那麼多線程效率會因爲GIL而大幅降低。
說了那麼多,若是不說解決方案就僅僅是個科普帖,然並卵。GIL這麼爛,有沒有辦法繞過呢?咱們來看看有哪些現成的方案。
multiprocessing庫的出現很大程度上是爲了彌補thread庫由於GIL而低效的缺陷。它完整的複製了一套thread所提供的接口方便遷移。惟一的不一樣就是它使用了多進程而不是多線程。每一個進程有本身的獨立的GIL,所以也不會出現進程之間的GIL爭搶。
固然multiprocessing也不是萬能良藥。它的引入會增長程序實現時線程間數據通信和同步的困難。就拿計數器來舉例子,若是咱們要多個線程累加同一個變量,對於thread來講,申明一個global變量,用thread.Lock的context包裹住三行就搞定了。而multiprocessing因爲進程之間沒法看到對方的數據,只能經過在主線程申明一個Queue,put再get或者用share memory的方法。這個額外的實現成本使得原本就很是痛苦的多線程程序編碼,變得更加痛苦了。具體難點在哪有興趣的讀者能夠擴展閱讀這篇文章
以前也提到了既然GIL只是CPython的產物,那麼其餘解析器是否是更好呢?沒錯,像JPython和IronPython這樣的解析器因爲實現語言的特性,他們不須要GIL的幫助。然而因爲用了Java/C#用於解析器實現,他們也失去了利用社區衆多C語言模塊有用特性的機會。因此這些解析器也所以一直都比較小衆。畢竟功能和性能你們在初期都會選擇前者,Done is better than perfect
。
固然Python社區也在很是努力的不斷改進GIL,甚至是嘗試去除GIL。並在各個小版本中有了很多的進步。有興趣的讀者能夠擴展閱讀這個Slide 另外一個改進Reworking the GIL - 將切換顆粒度從基於opcode計數改爲基於時間片計數 - 避免最近一次釋放GIL鎖的線程再次被當即調度 - 新增線程優先級功能(高優先級線程能夠迫使其餘線程釋放所持有的GIL鎖)
Python GIL實際上是功能和性能之間權衡後的產物,它尤爲存在的合理性,也有較難改變的客觀因素。從本分的分析中,咱們能夠作如下一些簡單的總結: - 由於GIL的存在,只有IO Bound場景下得多線程會獲得較好的性能 - 若是對並行計算性能較高的程序能夠考慮把核心部分也成C模塊,或者索性用其餘語言實現 - GIL在較長一段時間內將會繼續存在,可是會不斷對其進行改進
Python’s hardest problem Official documents about GIL Revisiting thread priorities and the new GIL