秉承一向的學習風格,技術性文章,先來一張腦圖java
技術沒什麼大不了的,再深刻不也就那些東西嘛,只不過看你在學習的過程當中是否真的用心了,我我的以爲這也是學習和涉獵的區別算法
而後咱們來看具體的技術講解sql
1、JVM內存模型及垃圾收集算法apache
1.根據Java虛擬機規範,JVM將內存劃分爲:緩存
其中New和Tenured屬於堆內存,堆內存會從JVM啓動參數(-Xmx:3G)指定的內存中分配,Perm不屬於堆內存,有虛擬機直接分配,但能夠經過-XX:PermSize -XX:MaxPermSize 等參數調整其大小。服務器
New又分爲幾個部分:多線程
2.垃圾回收算法架構
垃圾回收算法能夠分爲三類,都基於標記-清除(複製)算法:併發
JVM會根據機器的硬件配置對每一個內存代選擇適合的回收算法,好比,若是機器多於1個核,會對年輕代選擇並行算法,關於選擇細節請參考JVM調優文檔。app
稍微解釋下的是,並行算法是用多線程進行垃圾回收,回收期間會暫停程序的執行,而併發算法,也是多線程回收,但期間不中止應用執行。因此,併發算法適用於交互性高的一些程序。通過觀察,併發算法會減小年輕代的大小,其實就是使用了一個大的年老代,這反過來跟並行算法相比吞吐量相對較低。
還有一個問題是,垃圾回收動做什麼時候執行?
另外一個問題是,什麼時候會拋出OutOfMemoryException,並非內存被耗空的時候才拋出
知足這兩個條件將觸發OutOfMemoryException,這將會留給系統一個微小的間隙以作一些Down以前的操做,好比手動打印Heap Dump。
2、內存泄漏及解決方法
1.系統崩潰前的一些現象:
以後系統會沒法響應新的請求,逐漸到達OutOfMemoryError的臨界值。
2.生成堆的dump文件
經過JMX的MBean生成當前的Heap信息,大小爲一個3G(整個堆的大小)的hprof文件,若是沒有啓動JMX能夠經過Java的jmap命令來生成該文件。
3.分析dump文件
下面要考慮的是如何打開這個3G的堆信息文件,顯然通常的Window系統沒有這麼大的內存,必須藉助高配置的Linux。固然咱們能夠藉助X-Window把Linux上的圖形導入到Window。咱們考慮用下面幾種工具打開該文件:
使用這些工具時爲了確保加載速度,建議設置最大內存爲6G。使用後發現,這些工具都沒法直觀地觀察到內存泄漏,Visual VM雖能觀察到對象大小,但看不到調用堆棧;HeapAnalyzer雖然能看到調用堆棧,卻沒法正確打開一個3G的文件。所以,咱們又選用了Eclipse專門的靜態內存分析工具:Mat。
4.分析內存泄漏
經過Mat咱們能清楚地看到,哪些對象被懷疑爲內存泄漏,哪些對象佔的空間最大及對象的調用關係。針對本案,在ThreadLocal中有不少的JbpmContext實例,通過調查是JBPM的Context沒有關閉所致。
另,經過Mat或JMX咱們還能夠分析線程狀態,能夠觀察到線程被阻塞在哪一個對象上,從而判斷系統的瓶頸。
5.迴歸問題
Q:爲何崩潰前垃圾回收的時間愈來愈長?
A:根據內存模型和垃圾回收算法,垃圾回收分兩部分:內存標記、清除(複製),標記部分只要內存大小固定時間是不變的,變的是複製部分,由於每次垃圾回收都有一些回收不掉的內存,因此增長了複製量,致使時間延長。因此,垃圾回收的時間也能夠做爲判斷內存泄漏的依據
Q:爲何Full GC的次數愈來愈多?
A:所以內存的積累,逐漸耗盡了年老代的內存,致使新對象分配沒有更多的空間,從而致使頻繁的垃圾回收
Q:爲何年老代佔用的內存愈來愈大?
A:由於年輕代的內存沒法被回收,愈來愈多地被Copy到年老代
3、性能調優
除了上述內存泄漏外,咱們還發現CPU長期不足3%,系統吞吐量不夠,針對8core×16G、64bit的Linux服務器來講,是嚴重的資源浪費。
在CPU負載不足的同時,偶爾會有用戶反映請求的時間過長,咱們意識到必須對程序及JVM進行調優。從如下幾個方面進行:
1.Java線程池(
java.util.concurrent.ThreadPoolExecutor)
大多數JVM6上的應用採用的線程池都是JDK自帶的線程池,之因此把成熟的Java線程池進行羅嗦說明,是由於該線程池的行爲與咱們想象的有點出入。Java線程池有幾個重要的配置參數:
Java線程池須要傳入一個Queue參數(workQueue)用來存放執行的任務,而對Queue的不一樣選擇,線程池有徹底不一樣的行爲:
其實咱們的要求很簡單,但願線程池能跟鏈接池同樣,能設置最小線程數、最大線程數,當最小數<任務<最大數時,應該分配新的線程處理;當任務>最大數時,應該等待有空閒線程再處理該任務。
但線程池的設計思路是,任務應該放到Queue中,當Queue放不下時再考慮用新線程處理,若是Queue滿且沒法派生新線程,就拒絕該任務。設計致使「先放等執行」、「放不下再執行」、「拒毫不等待」。因此,根據不一樣的Queue參數,要提升吞吐量不能一味地增大maximumPoolSize。
固然,要達到咱們的目標,必須對線程池進行必定的封裝,幸運的是ThreadPoolExecutor中留了足夠的自定義接口以幫助咱們達到目標。咱們封裝的方式是:
2.鏈接池(
org.apache.commons.dbcp.BasicDataSource)
在使用
org.apache.commons.dbcp.BasicDataSource的時候,由於以前採用了默認配置,因此當訪問量大時,經過JMX觀察到不少Tomcat線程都阻塞在BasicDataSource使用的Apache ObjectPool的鎖上,直接緣由當時是由於BasicDataSource鏈接池的最大鏈接數設置的過小,默認的BasicDataSource配置,僅使用8個最大鏈接。
我還觀察到一個問題,當較長的時間不訪問系統,好比2天,DB上的Mysql會斷掉因此的鏈接,致使鏈接池中緩存的鏈接不能用。爲了解決這些問題,咱們充分研究了BasicDataSource,發現了一些優化的點:
3.JVM參數
在JVM啓動參數中,能夠設置跟內存、垃圾回收相關的一些參數設置,默認狀況不作任何設置JVM會工做的很好,但對一些配置很好的Server和具體的應用必須仔細調優才能得到最佳性能。經過設置咱們但願達到一些目標:
前兩個目前是相悖的,要想GC時間小必需要一個更小的堆,要保證GC次數足夠少,必須保證一個更大的堆,咱們只能取其平衡。
(1)針對JVM堆的設置,通常能夠經過-Xms -Xmx限定其最小、最大值,爲了防止垃圾收集器在最小、最大之間收縮堆而產生額外的時間,咱們一般把最大、最小設置爲相同的值 (2)年輕代和年老代將根據默認的比例(1:2)分配堆內存,能夠經過調整兩者之間的比率NewRadio來調整兩者之間的大小,也能夠針對回收代,好比年輕代,經過 -XX:newSize -XX:MaxNewSize來設置其絕對大小。一樣,爲了防止年輕代的堆收縮,咱們一般會把-XX:newSize -XX:MaxNewSize設置爲一樣大小
(3)年輕代和年老代設置多大才算合理?這個我問題毫無疑問是沒有答案的,不然也就不會有調優。咱們觀察一下兩者大小變化有哪些影響
(4)在配置較好的機器上(好比多核、大內存),能夠爲年老代選擇並行收集算法: -XX:+UseParallelOldGC ,默認爲Serial收集
(5)線程堆棧的設置:每一個線程默認會開啓1M的堆棧,用於存放棧幀、調用參數、局部變量等,對大多數應用而言這個默認值太了,通常256K就足用。理論上,在內存不變的狀況下,減小每一個線程的堆棧,能夠產生更多的線程,但這實際上還受限於操做系統。
(4)能夠經過下面的參數打Heap Dump信息
經過下面參數能夠控制OutOfMemoryError時打印堆的信息
請看一下一個時間的Java參數配置:(服務器:Linux 64Bit,8Core×16G)
JAVA_OPTS="$JAVA_OPTS -server -Xms3G -Xmx3G -Xss256k -XX:PermSize=128m -XX:MaxPermSize=128m -XX:+UseParallelOldGC -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/usr/aaa/dump -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -Xloggc:/usr/aaa/dump/heap_trace.txt -XX:NewSize=1G -XX:MaxNewSize=1G"
通過觀察該配置很是穩定,每次普通GC的時間在10ms左右,Full GC基本不發生,或隔很長很長的時間才發生一次
經過分析dump文件能夠發現,每一個1小時都會發生一次Full GC,通過多方求證,只要在JVM中開啓了JMX服務,JMX將會1小時執行一次Full GC以清除引用,關於這點請參考附件文檔。
4.程序算法調優:本次不做爲重點
================================================================================
調優方法
一切都是爲了這一步,調優,在調優以前,咱們須要記住下面的原則:
一、多數的Java應用不須要在服務器上進行GC優化;
二、多數致使GC問題的Java應用,都不是由於咱們參數設置錯誤,而是代碼問題;
三、在應用上線以前,先考慮將機器的JVM參數設置到最優(最適合);
四、減小建立對象的數量;
五、減小使用全局變量和大對象;
六、GC優化是到最後不得已才採用的手段;
七、在實際使用中,分析GC狀況優化代碼比優化GC參數要多得多;
GC優化的目的有兩個(
一、將轉移到老年代的對象數量下降到最小;
二、減小full GC的執行時間;
爲了達到上面的目的,通常地,你須要作的事情有:
一、減小使用全局變量和大對象;
二、調整新生代的大小到最合適;
三、設置老年代的大小爲最合適;
四、選擇合適的GC收集器;
在上面的4條方法中,用了幾個「合適」,那究竟什麼纔算合適,通常的,請參考上面「收集器搭配」和「啓動內存分配」兩節中的建議。但這些建議不是萬能的,須要根據您的機器和應用狀況進行發展和變化,實際操做中,能夠將兩臺機器分別設置成不一樣的GC參數,而且進行對比,選用那些確實提升了性能或減小了GC時間的參數。
真正熟練的使用GC調優,是創建在屢次進行GC監控和調優的實戰經驗上的,進行監控和調優的通常步驟爲:
1,監控GC的狀態
使用各類JVM工具,查看當前日誌,分析當前JVM參數設置,而且分析當前堆內存快照和gc日誌,根據實際的各區域內存劃分和GC執行時間,以爲是否進行優化;
2,分析結果,判斷是否須要優化
若是各項參數設置合理,系統沒有超時日誌出現,GC頻率不高,GC耗時不高,那麼沒有必要進行GC優化;若是GC時間超過1-3秒,或者頻繁GC,則必須優化;
注:若是知足下面的指標,則通常不須要進行GC:
Minor GC執行時間不到50ms;
Minor GC執行不頻繁,約10秒一次;
Full GC執行時間不到1s;
Full GC執行頻率不算頻繁,不低於10分鐘1次;
3,調整GC類型和內存分配
若是內存分配過大或太小,或者採用的GC收集器比較慢,則應該優先調整這些參數,而且先找1臺或幾臺機器進行beta,而後比較優化過的機器和沒有優化的機器的性能對比,並有針對性的作出最後選擇;
4,不斷的分析和調整
經過不斷的試驗和試錯,分析並找到最合適的參數
5,全面應用參數
若是找到了最合適的參數,則將這些參數應用到全部服務器,並進行後續跟蹤。
調優實例
上面的內容都是紙上談兵,下面咱們以一些真實例子來進行說明:
實例1:
筆者昨日發現部分開發測試機器出現異常:
java.lang.OutOfMemoryError: GC overhead limit exceeded,這個異常表明:
GC爲了釋放很小的空間卻耗費了太多的時間,其緣由通常有兩個:1,堆過小,2,有死循環或大對象;
筆者首先排除了第2個緣由,由於這個應用同時是在線上運行的,若是有問題,早就掛了。因此懷疑是這臺機器中堆設置過小;
使用ps -ef |grep "java"查看,發現:
該應用的堆區設置只有768m,而機器內存有2g,機器上只跑這一個java應用,沒有其餘須要佔用內存的地方。另外,這個應用比較大,須要佔用的內存也比較多;
筆者經過上面的狀況判斷,只須要改變堆中各區域的大小設置便可,因而改爲下面的狀況:
跟蹤運行狀況發現,相關異常沒有再出現;
實例2:(
一個服務系統,常常出現卡頓,分析緣由,發現Full GC時間太長:
jstat -gcutil:
S0 S1 E O P YGC YGCT FGC FGCT GCT
12.16 0.00 5.18 63.78 20.32 54 2.047 5 6.946 8.993
分析上面的數據,發現Young GC執行了54次,耗時2.047秒,每次Young GC耗時37ms,在正常範圍,而Full GC執行了5次,耗時6.946秒,每次平均1.389s,數據顯示出來的問題是:Full GC耗時較長,分析該系統的是指發現,NewRatio=9,也就是說,新生代和老生代大小之比爲1:9,這就是問題的緣由:
1,新生代過小,致使對象提早進入老年代,觸發老年代發生Full GC;
2,老年代較大,進行Full GC時耗時較大;
優化的方法是調整NewRatio的值,調整到4,發現Full GC沒有再發生,只有Young GC在執行。這就是把對象控制在新生代就清理掉,沒有進入老年代(這種作法對一些應用是頗有用的,但並非對全部應用都要這麼作)
實例3:
一應用在性能測試過程當中,發現內存佔用率很高,Full GC頻繁,使用sudo -u admin -H jmap -dump:format=b,file=文件名.hprof pid 來dump內存,生成dump文件,並使用Eclipse下的mat差距進行分析,發現:
從圖中能夠看出,這個線程存在問題,隊列LinkedBlockingQueue所引用的大量對象並未釋放,致使整個線程佔用內存高達378m,此時通知開發人員進行代碼優化,將相關對象釋放掉便可。
關於JVM,就這麼一點拙見,有不對的地方,但願你們指出,謝謝
關注公衆號:Java架構師聯盟,每日更新技術好文,須要架構圖,關注公衆號後回覆「架構圖」便可