當一個線程試圖訪問同步代碼塊時,他首先必須獲得鎖,退出或拋出異常時必須釋放鎖。那麼鎖到底存在哪裏呢?鎖裏面會存儲什麼信息呢?java
從JVM規範中能夠看到Synchronized在JVM裏的實現原理,JVM基於進入和退出Monitor對象來實現方法同步和代碼塊同步,但二者的實現細節不同。代碼塊同步是使用monitorenter和monitorexit指令實現的,而方法同步是使用另一種方式實現的,細節在JVM規範裏並無詳細說明。可是,方法的同步一樣可使用這兩個指令來實現。程序員
monitorenter指令是在編譯後插入到同步代碼塊的開始位置,而monitorexit是插入到方法結束處和異常處,JVM要保證每一個monitorenter必須有對應的monitorexit與之配對。任何對象都有一個monitor與之關聯,當且一個monitor被持有後,它將處於鎖定狀態。線程執行到monitorenter指令時,將會嘗試獲取對象所對應的monitor的全部權,即嘗試得到對象的鎖。面試
不是 每一個線程都有本身的工做內存,每一個線程須要對共享變量操做時必須先把共享變量從主內存 load 到本身的工做內存,等完成對共享變量的操做時再 save 到主內存。算法
問題就出在這了,若是一個線程運算完後還沒刷到主內存,此時這個共享變量的值被另一個線程從主內存讀取到了,這個時候讀取的數據就是髒數據了,它會覆蓋其餘線程計算完的值。。。編程
這也是經典的內存不可見問題,那麼把 count 加上 volatile 讓內存可見是否能解決這個問題呢? 答案是:不能。由於 volatile 只能保證可見性,不能保證原子性。多個線程同時讀取這個共享變量的值,就算保證其餘線程修改的可見性,也不能保證線程之間讀取到一樣的值而後相互覆蓋對方的值的狀況。緩存
解決方案 說了這麼多,對於 i++ 這種線程不安全問題有沒有其餘解決方案呢?固然有,請參考如下幾種解決方案。安全
一、對 i++ 操做的方法加同步鎖,同時只能有一個線程執行 i++ 操做;服務器
二、使用支持原子性操做的類,如 java.util.concurrent.atomic.AtomicInteger,它使用的是 CAS 算法,效率優於第 1 種;多線程
1)發揮多核CPU的優點架構
隨着工業的進步,如今的筆記本、臺式機乃至商用的應用服務器至少也都是雙核的,4核、8核甚至16核的也都很多見,若是是單線程的程序,那麼在雙核CPU上就浪費了50%,在4核CPU上就浪費了75%。單核CPU上所謂的"多線程"那是假的多線程,同一時間處理器只會處理一段邏輯,只不過線程之間切換得比較快,看着像多個線程"同時"運行罷了。多核CPU上的多線程纔是真正的多線程,它能讓你的多段邏輯同時工做,多線程,能夠真正發揮出多核CPU的優點來,達到充分利用CPU的目的。
2)防止阻塞
從程序運行效率的角度來看,單核CPU不但不會發揮出多線程的優點,反而會由於在單核CPU上運行多線程致使線程上下文的切換,而下降程序總體的效率。可是單核CPU咱們仍是要應用多線程,就是爲了防止阻塞。試想,若是單核CPU使用單線程,那麼只要這個線程阻塞了,比方說遠程讀取某個數據吧,對端遲遲未返回又沒有設置超時時間,那麼你的整個程序在數據返回回來以前就中止運行了。多線程能夠防止這個問題,多條線程同時運行,哪怕一條線程的代碼執行讀取數據阻塞,也不會影響其它任務的執行。
3)便於建模
這是另一個沒有這麼明顯的優勢了。假設有一個大的任務A,單線程編程,那麼就要考慮不少,創建整個程序模型比較麻煩。可是若是把這個大的任務A分解成幾個小任務,任務B、任務C、任務D,分別創建程序模型,並經過多線程分別運行這幾個任務,那就簡單不少了。
實現多線程的3種方式
繼承Thread類 看jdk源碼能夠發現,Thread類實際上是實現了Runnable接口的一個實例,繼承Thread類後須要重寫run方法並經過start方法啓動線程。 繼承Thread類耦合性太強了,由於java只能單繼承,因此不利於擴展。
實現Runnable接口 經過實現Runnable接口並重寫run方法,並把Runnable實例傳給Thread對象,Thread的start方法調用run方法再經過調用Runnable實例的run方法啓動線程。 因此若是一個類繼承了另一個父類,此時要實現多線程就不能經過繼承Thread的類實現。
實現Callable接口 經過實現Callable接口並重寫call方法,並把Callable實例傳給FutureTask對象,再把FutureTask對象傳給Thread對象。它與Thread、Runnable最大的不一樣是Callable能返回一個異步處理的結果Future對象並能拋出異常,而其餘兩種不能。
示例代碼
import java.util.concurrent.Callable; import java.util.concurrent.FutureTask; /** * Created by binzhang on 2019/3/23. */ public class TestThread { static class Thread1 extends Thread{ @Override public void run() { System.out.println("Thread1 running..."); } } static class Thread2 implements Runnable{ @Override public void run() { System.out.println("Thread2 running..."); } } static class Thread3<T> implements Callable<T>{ @SuppressWarnings("unchecked") @Override public T call() throws Exception { System.out.println("Thread3 running..."); return (T)new String("hello callable..."); } } public static void main(String[] args) throws Exception{ Thread1 t1 = new Thread1(); Thread t2 = new Thread(new Thread2()); FutureTask<String> ft = new FutureTask<>(new Thread3<>()); Thread t3 = new Thread(ft); t1.start(); t2.start(); t3.start(); System.out.println(ft.get()); } }
輸出
Thread1 running... Thread2 running... Thread3 running... hello callable...
只有調用了start()方法,纔會表現出多線程的特性,不一樣線程的run()方法裏面的代碼交替執行。若是隻是調用run()方法,那麼代碼仍是同步執行的,必須等待一個線程的run()方法裏面的代碼所有執行完畢以後,另一個線程才能夠執行其run()方法裏面的代碼。
有點深的問題了,也看出一個Java程序員學習知識的廣度。
Runnable接口中的run()方法的返回值是void,它作的事情只是純粹地去執行run()方法中的代碼而已;Callable接口中的call()方法是有返回值的,是一個泛型,和Future、FutureTask配合能夠用來獲取異步執行的結果。
這實際上是頗有用的一個特性,由於多線程相比單線程更難、更復雜的一個重要緣由就是由於多線程充滿着未知性,某條線程是否執行了?某條線程執行了多久?某條線程執行的時候咱們指望的數據是否已經賦值完畢?沒法得知,咱們能作的只是等待這條多線程的任務執行完畢而已。而Callable+Future/FutureTask卻能夠獲取多線程運行的結果,能夠在等待時間太長沒獲取到須要的數據的狀況下取消該線程的任務,真的是很是有用。
兩個看上去有點像的類,都在java.util.concurrent下,均可以用來表示代碼運行到某個點上,兩者的區別在於:
CyclicBarrier的某個線程運行到某個點上以後,該線程即中止運行,直到全部的線程都到達了這個點,全部線程才從新運行;CountDownLatch則不是,某線程運行到某個點上以後,只是給某個數值-1而已,該線程繼續運行。
CyclicBarrier只能喚起一個任務,CountDownLatch能夠喚起多個任務。
CyclicBarrier可重用,CountDownLatch不可重用,計數值爲0該CountDownLatch就不可再用了。
一個很是重要的問題,是每一個學習、應用多線程的Java程序員都必須掌握的。理解volatile關鍵字的做用的前提是要理解Java內存模型,這裏就不講Java內存模型了,能夠參見第31點,volatile關鍵字的做用主要有兩個:
1)多線程主要圍繞可見性和原子性兩個特性而展開,使用volatile關鍵字修飾的變量,保證了其在多線程之間的可見性,即每次讀取到volatile變量,必定是最新的數據。
2)代碼底層執行不像咱們看到的高級語言----Java程序這麼簡單,它的執行是Java代碼-->字節碼-->根據字節碼執行對應的C/C++代碼-->C/C++代碼被編譯成彙編語言-->和硬件電路交互
,現實中,爲了獲取更好的性能JVM可能會對指令進行重排序,多線程下可能會出現一些意想不到的問題。使用volatile則會對禁止語義重排序,固然這也必定程度上下降了代碼執行效率。
從實踐角度而言,volatile的一個重要做用就是和CAS結合,保證了原子性,詳細的能夠參見java.util.concurrent.atomic包下的類,好比AtomicInteger,更多詳情請點擊這裏進行學習。
又是一個理論的問題,各式各樣的答案有不少,我給出一個我的認爲解釋地最好的:若是你的代碼在多線程下執行和在單線程下執行永遠都能得到同樣的結果,那麼你的代碼就是線程安全的。
這個問題有值得一提的地方,就是線程安全也是有幾個級別的:
1)不可變
像String、Integer、Long這些,都是final類型的類,任何一個線程都改變不了它們的值,要改變除非新建立一個,所以這些不可變對象不須要任何同步手段就能夠直接在多線程環境下使用
2)絕對線程安全
無論運行時環境如何,調用者都不須要額外的同步措施。要作到這一點一般須要付出許多額外的代價,Java中標註本身是線程安全的類,實際上絕大多數都不是線程安全的,不過絕對線程安全的類,Java中也有,比方說CopyOnWriteArrayList、CopyOnWriteArraySet
3)相對線程安全
相對線程安全也就是咱們一般意義上所說的線程安全,像Vector這種,add、remove方法都是原子操做,不會被打斷,但也僅限於此,若是有個線程在遍歷某個Vector、有個線程同時在add這個Vector,99%的狀況下都會出現ConcurrentModificationException,也就是fail-fast機制。
4)線程非安全
這個就沒什麼好說的了,ArrayList、LinkedList、HashMap等都是線程非安全的類,點擊這裏瞭解爲何不安全。
死循環、死鎖、阻塞、頁面打開慢等問題,打線程dump是最好的解決問題的途徑。所謂線程dump也就是線程堆棧,獲取到線程堆棧有兩步:
1)獲取到線程的pid,能夠經過使用jps命令,在Linux環境下還可使用ps -ef | grep java
2)打印線程堆棧,能夠經過使用jstack pid命令,在Linux環境下還可使用kill -3 pid
另外提一點,Thread類提供了一個getStackTrace()方法也能夠用於獲取線程堆棧。這是一個實例方法,所以此方法是和具體線程實例綁定的,每次獲取獲取到的是具體某個線程當前運行的堆棧。
若是這個異常沒有被捕獲的話,這個線程就中止執行了。另外重要的一點是:若是這個線程持有某個某個對象的監視器,那麼這個對象監視器會被當即釋放
經過在線程之間共享對象就能夠了,而後經過wait/notify/notifyAll、await/signal/signalAll進行喚起和等待,比方說阻塞隊列BlockingQueue就是爲線程之間共享數據而設計的
這個問題常問,sleep方法和wait方法均可以用來放棄CPU必定的時間,不一樣點在於若是線程持有某個對象的監視器,sleep方法不會放棄這個對象的監視器,wait方法會放棄這個對象的監視器。
這個問題很理論,可是很重要:
1)經過平衡生產者的生產能力和消費者的消費能力來提高整個系統的運行效率,這是生產者消費者模型最重要的做用
2)解耦,這是生產者消費者模型附帶的做用,解耦意味着生產者和消費者之間的聯繫少,聯繫越少越能夠獨自發展而不須要收到相互的制約
簡單說ThreadLocal就是一種以空間換時間的作法,在每一個Thread裏面維護了一個以開地址法實現的ThreadLocal.ThreadLocalMap,把數據進行隔離,數據不共享,天然就沒有線程安全方面的問題了
這是JDK強制的,wait()方法和notify()/notifyAll()方法在調用前都必須先得到對象的鎖
wait()方法和notify()/notifyAll()方法在放棄對象監視器的時候的區別在於:wait()方法當即釋放對象監視器,notify()/notifyAll()方法則會等待線程剩餘代碼執行完畢纔會放棄對象監視器。
避免頻繁地建立和銷燬線程,達到線程對象的重用。另外,使用線程池還能夠根據項目靈活地控制併發的數目。點擊這裏學習線程池詳解。
我也是在網上看到一道多線程面試題才知道有方法能夠判斷某個線程是否持有對象監視器:Thread類提供了一個holdsLock(Object obj)方法,當且僅當對象obj的監視器被某條線程持有的時候纔會返回true,注意這是一個static方法,這意味着"某條線程"指的是當前線程。
synchronized是和if、else、for、while同樣的關鍵字,ReentrantLock是類,這是兩者的本質區別。既然ReentrantLock是類,那麼它就提供了比synchronized更多更靈活的特性,能夠被繼承、能夠有方法、能夠有各類各樣的類變量,ReentrantLock比synchronized的擴展性體如今幾點上:
(1)ReentrantLock能夠對獲取鎖的等待時間進行設置,這樣就避免了死鎖
(2)ReentrantLock能夠獲取各類鎖的信息
(3)ReentrantLock能夠靈活地實現多路通知
另外,兩者的鎖機制其實也是不同的。ReentrantLock底層調用的是Unsafe的park方法加鎖,synchronized操做的應該是對象頭中mark word,這點我不能肯定。
ConcurrentHashMap的併發度就是segment的大小,默認爲16,這意味着最多同時能夠有16條線程操做ConcurrentHashMap,這也是ConcurrentHashMap對Hashtable的最大優點,任何狀況下,Hashtable能同時有兩條線程獲取Hashtable中的數據嗎?
首先明確一下,不是說ReentrantLock很差,只是ReentrantLock某些時候有侷限。若是使用ReentrantLock,可能自己是爲了防止線程A在寫數據、線程B在讀數據形成的數據不一致,但這樣,若是線程C在讀數據、線程D也在讀數據,讀數據是不會改變數據的,沒有必要加鎖,可是仍是加鎖了,下降了程序的性能。
由於這個,才誕生了讀寫鎖ReadWriteLock。ReadWriteLock是一個讀寫鎖接口,ReentrantReadWriteLock是ReadWriteLock接口的一個具體實現,實現了讀寫的分離,讀鎖是共享的,寫鎖是獨佔的,讀和讀之間不會互斥,讀和寫、寫和讀、寫和寫之間纔會互斥,提高了讀寫的性能。
這個其實前面有提到過,FutureTask表示一個異步運算的任務。FutureTask裏面能夠傳入一個Callable的具體實現類,能夠對這個異步運算的任務的結果進行等待獲取、判斷是否已經完成、取消任務等操做。固然,因爲FutureTask也是Runnable接口的實現類,因此FutureTask也能夠放入線程池中。
這是一個比較偏實踐的問題,這種問題我以爲挺有意義的。能夠這麼作:
(1)獲取項目的pid,jps或者ps -ef | grep java,這個前面有講過
(2)top -H -p pid,順序不能改變
這樣就能夠打印出當前的項目,每條線程佔用CPU時間的百分比。注意這裏打出的是LWP,也就是操做系統原生線程的線程號,我筆記本山沒有部署Linux環境下的Java工程,所以沒有辦法截圖演示,網友朋友們若是公司是使用Linux環境部署項目的話,能夠嘗試一下。
使用"top -H -p pid"+"jps pid"能夠很容易地找到某條佔用CPU高的線程的線程堆棧,從而定位佔用CPU高的緣由,通常是由於不當的代碼操做致使了死循環。
最後提一點,"top -H -p pid"打出來的LWP是十進制的,"jps pid"打出來的本地線程號是十六進制的,轉換一下,就能定位到佔用CPU高的線程的當前線程堆棧了。
第一次看到這個題目,以爲這是一個很是好的問題。不少人都知道死鎖是怎麼一回事兒:線程A和線程B相互等待對方持有的鎖致使程序無限死循環下去。固然也僅限於此了,問一下怎麼寫一個死鎖的程序就不知道了,這種狀況說白了就是不懂什麼是死鎖,懂一個理論就完事兒了,實踐中碰到死鎖的問題基本上是看不出來的。
真正理解什麼是死鎖,這個問題其實不難,幾個步驟:
1)兩個線程裏面分別持有兩個Object對象:lock1和lock2。這兩個lock做爲同步代碼塊的鎖;
2)線程1的run()方法中同步代碼塊先獲取lock1的對象鎖,Thread.sleep(xxx),時間不須要太多,50毫秒差很少了,而後接着獲取lock2的對象鎖。這麼作主要是爲了防止線程1啓動一會兒就連續得到了lock1和lock2兩個對象的對象鎖
3)線程2的run)(方法中同步代碼塊先獲取lock2的對象鎖,接着獲取lock1的對象鎖,固然這時lock1的對象鎖已經被線程1鎖持有,線程2確定是要等待線程1釋放lock1的對象鎖的
這樣,線程1"睡覺"睡完,線程2已經獲取了lock2的對象鎖了,線程1此時嘗試獲取lock2的對象鎖,便被阻塞,此時一個死鎖就造成了。代碼就不寫了,佔的篇幅有點多,Java多線程7:死鎖這篇文章裏面有,就是上面步驟的代碼實現。
點擊這裏提供了一個死鎖的案例。
若是線程是由於調用了wait()、sleep()或者join()方法而致使的阻塞,能夠中斷線程,而且經過拋出InterruptedException來喚醒它;若是線程遇到了IO阻塞,無能爲力,由於IO是操做系統實現的,Java代碼並無辦法直接接觸到操做系統。
前面有提到過的一個問題,不可變對象保證了對象的內存可見性,對不可變對象的讀取不須要進行額外的同步手段,提高了代碼執行效率。
多線程的上下文切換是指CPU控制權由一個已經正在運行的線程切換到另一個就緒並等待獲取CPU執行權的線程的過程。
這裏區分一下:
1)若是使用的是無界隊列LinkedBlockingQueue,也就是無界隊列的話,不要緊,繼續添加任務到阻塞隊列中等待執行,由於LinkedBlockingQueue能夠近乎認爲是一個無窮大的隊列,能夠無限存聽任務
2)若是使用的是有界隊列好比ArrayBlockingQueue,任務首先會被添加到ArrayBlockingQueue中,ArrayBlockingQueue滿了,會根據maximumPoolSize的值增長線程數量,若是增長了線程數量仍是處理不過來,ArrayBlockingQueue繼續滿,那麼則會使用拒絕策略RejectedExecutionHandler處理滿了的任務,默認是AbortPolicy
搶佔式。一個線程用完CPU以後,操做系統會根據線程優先級、線程飢餓狀況等數據算出一個總的優先級並分配下一個時間片給某個線程執行。
這個問題和上面那個問題是相關的,我就連在一塊兒了。因爲Java採用搶佔式的線程調度算法,所以可能會出現某條線程經常獲取到CPU控制權的狀況,爲了讓某些優先級比較低的線程也能獲取到CPU控制權,可使用Thread.sleep(0)手動觸發一次操做系統分配時間片的操做,這也是平衡CPU控制權的一種操做。
不少synchronized裏面的代碼只是一些很簡單的代碼,執行時間很是快,此時等待的線程都加鎖多是一種不太值得的操做,由於線程阻塞涉及到用戶態和內核態切換的問題。既然synchronized裏面的代碼執行得很是快,不妨讓等待鎖的線程不要被阻塞,而是在synchronized的邊界作忙循環,這就是自旋。若是作了屢次忙循環發現尚未得到鎖,再阻塞,這樣多是一種更好的策略。
Java內存模型定義了一種多線程訪問Java內存的規範。Java內存模型要完整講不是這裏幾句話能說清楚的,我簡單總結一下Java內存模型的幾部份內容:
1)Java內存模型將內存分爲了主內存和工做內存。類的狀態,也就是類之間共享的變量,是存儲在主內存中的,每次Java線程用到這些主內存中的變量的時候,會讀一次主內存中的變量,並讓這些內存在本身的工做內存中有一份拷貝,運行本身線程代碼的時候,用到這些變量,操做的都是本身工做內存中的那一份。在線程代碼執行完畢以後,會將最新的值更新到主內存中去
2)定義了幾個原子操做,用於操做主內存和工做內存中的變量
3)定義了volatile變量的使用規則
4)happens-before,即先行發生原則,定義了操做A必然先行發生於操做B的一些規則,好比在同一個線程內控制流前面的代碼必定先行發生於控制流後面的代碼、一個釋放鎖unlock的動做必定先行發生於後面對於同一個鎖進行鎖定lock的動做等等,只要符合這些規則,則不須要額外作同步措施,若是某段代碼不符合全部的happens-before規則,則這段代碼必定是線程非安全的
CAS,全稱爲Compare and Swap,即比較-替換。假設有三個操做數:內存值V、舊的預期值A、要修改的值B,當且僅當預期值A和內存值V相同時,纔會將內存值修改成B並返回true,不然什麼都不作並返回false。固然CAS必定要volatile變量配合,這樣才能保證每次拿到的變量是主內存中最新的那個值,不然舊的預期值A對某條線程來講,永遠是一個不會變的值A,只要某次CAS操做失敗,永遠都不可能成功。更多CAS詳情請點擊這裏學習。
1)樂觀鎖:就像它的名字同樣,對於併發間操做產生的線程安全問題持樂觀狀態,樂觀鎖認爲競爭不老是會發生,所以它不須要持有鎖,將比較-替換這兩個動做做爲一個原子操做嘗試去修改內存中的變量,若是失敗則表示發生衝突,那麼就應該有相應的重試邏輯。
2)悲觀鎖:仍是像它的名字同樣,對於併發間操做產生的線程安全問題持悲觀狀態,悲觀鎖認爲競爭老是會發生,所以每次對某資源進行操做時,都會持有一個獨佔的鎖,就像synchronized,無論三七二十一,直接上了鎖就操做資源了。
點擊這裏瞭解更多樂觀鎖與悲觀鎖詳情。
簡單說一下AQS,AQS全稱爲AbstractQueuedSychronizer,翻譯過來應該是抽象隊列同步器。
若是說java.util.concurrent的基礎是CAS的話,那麼AQS就是整個Java併發包的核心了,ReentrantLock、CountDownLatch、Semaphore等等都用到了它。AQS實際上以雙向隊列的形式鏈接全部的Entry,比方說ReentrantLock,全部等待的線程都被放在一個Entry中並連成雙向隊列,前面一個線程使用ReentrantLock好了,則雙向隊列實際上的第一個Entry開始運行。
AQS定義了對雙向隊列全部的操做,而只開放了tryLock和tryRelease方法給開發者使用,開發者能夠根據本身的實現重寫tryLock和tryRelease方法,以實現本身的併發功能。
老生常談的問題了,首先要說的是單例模式的線程安全意味着:某個類的實例在多線程環境下只會被建立一次出來。單例模式有不少種的寫法,我總結一下:
1)餓漢式單例模式的寫法:線程安全
2)懶漢式單例模式的寫法:非線程安全
3)雙檢鎖單例模式的寫法:線程安全
Semaphore就是一個信號量,它的做用是限制某段代碼塊的併發數。Semaphore有一個構造函數,能夠傳入一個int型整數n,表示某段代碼最多隻有n個線程能夠訪問,若是超出了n,那麼請等待,等到某個線程執行完畢這段代碼塊,下一個線程再進入。由此能夠看出若是Semaphore構造函數中傳入的int型整數n=1,至關於變成了一個synchronized了。
這是我以前的一個困惑,不知道你們有沒有想過這個問題。某個方法中若是有多條語句,而且都在操做同一個類變量,那麼在多線程環境下不加鎖,勢必會引起線程安全問題,這很好理解,可是size()方法明明只有一條語句,爲何還要加鎖?
關於這個問題,在慢慢地工做、學習中,有了理解,主要緣由有兩點:
1)同一時間只能有一條線程執行固定類的同步方法,可是對於類的非同步方法,能夠多條線程同時訪問。因此,這樣就有問題了,可能線程A在執行Hashtable的put方法添加數據,線程B則能夠正常調用size()方法讀取Hashtable中當前元素的個數,那讀取到的值可能不是最新的,可能線程A添加了完了數據,可是沒有對size++,線程B就已經讀取size了,那麼對於線程B來講讀取到的size必定是不許確的。而給size()方法加了同步以後,意味着線程B調用size()方法只有在線程A調用put方法完畢以後才能夠調用,這樣就保證了線程安全性
2)CPU執行代碼,執行的不是Java代碼,這點很關鍵,必定得記住。Java代碼最終是被翻譯成機器碼執行的,機器碼纔是真正能夠和硬件電路交互的代碼。即便你看到Java代碼只有一行,甚至你看到Java代碼編譯以後生成的字節碼也只有一行,也不意味着對於底層來講這句語句的操做只有一個。一句"return count"假設被翻譯成了三句彙編語句執行,一句彙編語句和其機器碼作對應,徹底可能執行完第一句,線程就切換了。
這是一個很是刁鑽和狡猾的問題。請記住:線程類的構造方法、靜態塊是被new這個線程類所在的線程所調用的,而run方法裏面的代碼纔是被線程自身所調用的。
若是說上面的說法讓你感到困惑,那麼我舉個例子,假設Thread2中new了Thread1,main函數中new了Thread2,那麼:
1)Thread2的構造方法、靜態塊是main線程調用的,Thread2的run()方法是Thread2本身調用的
2)Thread1的構造方法、靜態塊是Thread2調用的,Thread1的run()方法是Thread1本身調用的
同步塊,這意味着同步塊以外的代碼是異步執行的,這比同步整個方法更提高代碼的效率。請知道一條原則:同步的範圍越小越好。
藉着這一條,我額外提一點,雖然說同步的範圍越少越好,可是在Java虛擬機中仍是存在着一種叫作鎖粗化的優化方法,這種方法就是把同步範圍變大。這是有用的,比方說StringBuffer,它是一個線程安全的類,天然最經常使用的append()方法是一個同步方法,咱們寫代碼的時候會反覆append字符串,這意味着要進行反覆的加鎖->解鎖,這對性能不利,由於這意味着Java虛擬機在這條線程上要反覆地在內核態和用戶態之間進行切換,所以Java虛擬機會將屢次append方法調用的代碼進行一個鎖粗化的操做,將屢次的append的操做擴展到append方法的頭尾,變成一個大的同步塊,這樣就減小了加鎖–>解鎖的次數,有效地提高了代碼執行的效率。
這是我在併發編程網上看到的一個問題,把這個問題放在最後一個,但願每一個人都能看到而且思考一下,由於這個問題很是好、很是實際、很是專業。關於這個問題,我的見解是:
1)高併發、任務執行時間短的業務,線程池線程數能夠設置爲CPU核數+1,減小線程上下文的切換
2)併發不高、任務執行時間長的業務要區分開看:
a)假如是業務時間長集中在IO操做上,也就是IO密集型的任務,由於IO操做並不佔用CPU,因此不要讓全部的CPU閒下來,能夠加大線程池中的線程數目,讓CPU處理更多的業務
b)假如是業務時間長集中在計算操做上,也就是計算密集型任務,這個就沒辦法了,和(1)同樣吧,線程池中的線程數設置得少一些,減小線程上下文的切換
c)併發高、業務執行時間長,解決這種類型任務的關鍵不在於線程池而在於總體架構的設計,看看這些業務裏面某些數據是否能作緩存是第一步,增長服務器是第二步,至於線程池的設置,設置參考其餘有關線程池的文章。最後,業務執行時間長的問題,也可能須要分析一下,看看能不能使用中間件對任務進行拆分和解耦。
ThreadLocal 適用於每一個線程須要本身獨立的實例且該實例須要在多個方法中被使用,也即變量在線程間隔離而在方法或類間共享的場景。