工做中多處接觸到了ThreadPoolExecutor。趁着如今還算空,學習總結一下。java
前記:程序員
查看JDK幫助文檔,能夠發現該類比較簡單,繼承自AbstractExecutorService,而AbstractExecutorService實現了ExecutorService接口。服務器
ThreadPoolExecutor的完整構造方法的簽名是:多線程
ThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue<Runnable> workQueue, ThreadFactory threadFactory, RejectedExecutionHandler handler) 函數
先記着,後面慢慢解釋。性能
===============================神奇分割線==================================學習
其實對於ThreadPoolExecutor的構造函數網上有N多的解釋的,大多講得都很好,不過我想先換個方式,從Executors這個類入手。由於他的幾個構造工廠構造方法名字取得使人很容易瞭解有什麼特色。可是其實Executors類的底層實現即是ThreadPoolExecutor!spa
ThreadPoolExecutor是Executors類的底層實現。操作系統
在JDK幫助文檔中,有如此一段話:線程
「強烈建議程序員使用較爲方便的 Executors 工廠方法 Executors.newCachedThreadPool()(無界線程池,能夠進行自動線程回收)、Executors.newFixedThreadPool(int)(固定大小線程池)和Executors.newSingleThreadExecutor()(單個後臺線程),它們均爲大多數使用場景預約義了設置。」
===============================神奇分割線==================================
OK,那就來看看源碼吧,從newFixedThreadPool開始。
ExecutorService newFixedThreadPool(int nThreads):固定大小線程池。
能夠看到,corePoolSize和maximumPoolSize的大小是同樣的(實際上,後面會介紹,若是使用無界queue的話maximumPoolSize參數是沒有意義的),keepAliveTime和unit的設值表名什麼?-就是該實現不想keep alive!最後的BlockingQueue選擇了LinkedBlockingQueue,該queue有一個特色,他是無界的。
Java代碼
public static ExecutorService newFixedThreadPool(int nThreads) {
return new ThreadPoolExecutor(nThreads, nThreads,
0L, TimeUnit.MILLISECONDS,
new LinkedBlockingQueue<Runnable>());
}
ExecutorService newSingleThreadExecutor():單線程。
能夠看到,與fixedThreadPool很像,只不過fixedThreadPool中的入參直接退化爲1
Java代碼
ExecutorService newCachedThreadPool():無界線程池,能夠進行自動線程回收。
這個實現就有意思了。首先是無界的線程池,因此咱們能夠發現maximumPoolSize爲big big。其次BlockingQueue的選擇上使用SynchronousQueue。可能對於該BlockingQueue有些陌生,簡單說:該QUEUE中,每一個插入操做必須等待另外一個
線程的對應移除操做。好比,我先添加一個元素,接下來若是繼續想嘗試添加則會阻塞,直到另外一個線程取走一個元素,反之亦然。(想到什麼?就是緩衝區爲1的生產者消費者模式^_^)
注意到介紹中的自動回收線程的特性嗎,爲何呢?先不說,但注意到該實現中corePoolSize和maximumPoolSize的大小不一樣。
Java代碼
public static ExecutorService newCachedThreadPool() {
return new ThreadPoolExecutor(0, Integer.MAX_VALUE, 60L, TimeUnit.SECONDS, new SynchronousQueue<Runnable>());
}
===============================神奇分割線==================================
到此若是有不少疑問,那是必然了(除非你也很瞭解了)
先從BlockingQueue<Runnable> workQueue這個入參開始提及。在JDK中,其實已經說得很清楚了,一共有三種類型的queue。如下爲引用:(我會稍微修改一下,並用紅色突出顯示)
全部 BlockingQueue 均可用於傳輸和保持提交的任務。可使用此隊列與池大小進行交互:
先不着急舉例子,由於首先須要知道queue上的三種類型。
排隊有三種通用策略:
===============================神奇分割線==================================
到這裏,該瞭解的理論已經夠多了,能夠調節的就是corePoolSize和maximumPoolSizes 這對參數還有就是BlockingQueue的選擇。
例子一:使用直接提交策略,也即SynchronousQueue。
首先SynchronousQueue是無界的,也就是說他存數任務的能力是沒有限制的,可是因爲該Queue自己的特性,在某次添加元素後必須等待其餘線程取走後才能繼續添加。在這裏不是核心線程即是新建立的線程,可是咱們試想同樣下,下面的場景。
咱們使用一下參數構造ThreadPoolExecutor:
Java代碼
當核心線程已經有2個正在運行.
因此在使用SynchronousQueue一般要求maximumPoolSize是無界的,這樣就能夠避免上述狀況發生(若是但願限制就直接使用有界隊列)。對於使用SynchronousQueue的做用jdk中寫的很清楚: 此策略能夠避免在處理可能具備內部依賴性的請求集時出現鎖。
什麼意思?若是你的任務A1,A2有內部關聯,A1須要先運行,那麼先提交A1,再提交A2,當使用SynchronousQueue咱們能夠保證,A1一定先被執行,在A1麼有被執行前,A2不可能添加入queue中
例子二:使用無界隊列策略,即LinkedBlockingQueue
這個就拿 newFixedThreadPool來講,根據前文提到的規則:
寫道
若是運行的線程少於 corePoolSize,則 Executor 始終首選添加新的線程,而不進行排隊。
那麼當任務繼續增長,會發生什麼呢?
寫道
若是運行的線程等於或多於 corePoolSize,則 Executor 始終首選將請求加入隊列,而不添加新的線程。
OK,此時任務變加入隊列之中了,那何時纔會添加新線程呢?
寫道
若是沒法將請求加入隊列,則建立新的線程,除非建立此線程超出 maximumPoolSize,在這種狀況下,任務將被拒絕。
這裏就頗有意思了,可能會出現沒法加入隊列嗎?不像SynchronousQueue那樣有其自身的特色,對於無界隊列來講,老是能夠加入的(資源耗盡,固然另當別論)。換句說,永遠也不會觸發產生新的線程!corePoolSize大小的線程數會一直運行,忙完當前的,就從隊列中拿任務開始運行。因此要防止任務瘋長,好比任務運行的實行比較長,而添加任務的速度遠遠超過處理任務的時間,並且還不斷增長,若是任務內存大一些,不一下子就爆了,呵呵。
能夠仔細想一想哈。
例子三:有界隊列,使用ArrayBlockingQueue。
這個是最爲複雜的使用,因此JDK不推薦使用也有些道理。與上面的相比,最大的特色即是能夠防止資源耗盡的狀況發生。
舉例來講,請看以下構造方法:
Java代碼
假設,全部的任務都永遠沒法執行完。
對於首先來的A,B來講直接運行,接下來,若是來了C,D,他們會被放到queu中,若是接下來再來E,F,則增長線程運行E,F。可是若是再來任務,隊列沒法再接受了,線程數也到達最大的限制了,因此就會使用拒絕策略來處理。
總結:
一般來講對於靜態任務能夠歸爲:
看完這篇問文章後,但願可以能夠選擇合適的類型了