Java8系列之從新認識HashMap(轉)

轉自美團電瓶技術團隊:原文地址html

簡介

Java爲數據結構中的映射定義了一個接口java.util.Map,此接口主要有四個經常使用的實現類,分別是HashMap、Hashtable、LinkedHashMap和TreeMap,類繼承關係以下圖所示:java

java.util.map類圖

下面針對各個實現類的特色作一些說明:node

(1) HashMap:它根據鍵的hashCode值存儲數據,大多數狀況下能夠直接定位到它的值,於是具備很快的訪問速度,但遍歷順序倒是不肯定的。 HashMap最多隻容許一條記錄的鍵爲null,容許多條記錄的值爲null。HashMap非線程安全,即任一時刻能夠有多個線程同時寫HashMap,可能會致使數據的不一致。若是須要知足線程安全,能夠用 Collections的synchronizedMap方法使HashMap具備線程安全的能力,或者使用ConcurrentHashMap。程序員

(2) Hashtable:Hashtable是遺留類,不少映射的經常使用功能與HashMap相似,不一樣的是它承自Dictionary類,而且是線程安全的,任一時間只有一個線程能寫Hashtable,併發性不如ConcurrentHashMap,由於ConcurrentHashMap引入了分段鎖。Hashtable不建議在新代碼中使用,不須要線程安全的場合能夠用HashMap替換,須要線程安全的場合能夠用ConcurrentHashMap替換。算法

(3) LinkedHashMap:LinkedHashMap是HashMap的一個子類,保存了記錄的插入順序,在用Iterator遍歷LinkedHashMap時,先獲得的記錄確定是先插入的,也能夠在構造時帶參數,按照訪問次序排序。數組

(4) TreeMap:TreeMap實現SortedMap接口,可以把它保存的記錄根據鍵排序,默認是按鍵值的升序排序,也能夠指定排序的比較器,當用Iterator遍歷TreeMap時,獲得的記錄是排過序的。若是使用排序的映射,建議使用TreeMap。在使用TreeMap時,key必須實現Comparable接口或者在構造TreeMap傳入自定義的Comparator,不然會在運行時拋出java.lang.ClassCastException類型的異常。緩存

對於上述四種Map類型的類,要求映射中的key是不可變對象。不可變對象是該對象在建立後它的哈希值不會被改變。若是對象的哈希值發生變化,Map對象極可能就定位不到映射的位置了。安全

經過上面的比較,咱們知道了HashMap是Java的Map家族中一個普通成員,鑑於它能夠知足大多數場景的使用條件,因此是使用頻度最高的一個。下文咱們主要結合源碼,從存儲結構、經常使用方法分析、擴容以及安全性等方面深刻講解HashMap的工做原理。數據結構

內部實現

搞清楚HashMap,首先須要知道HashMap是什麼,即它的存儲結構-字段;其次弄明白它能幹什麼,即它的功能實現-方法。下面咱們針對這兩個方面詳細展開講解。多線程

存儲結構-字段

從結構實現來說,HashMap是數組+鏈表+紅黑樹(JDK1.8增長了紅黑樹部分)實現的,以下如所示。

hashMap內存結構圖

這裏須要講明白兩個問題:數據底層具體存儲的是什麼?這樣的存儲方式有什麼優勢呢?

(1) 從源碼可知,HashMap類中有一個很是重要的字段,就是 Node[] table,即哈希桶數組,明顯它是一個Node的數組。咱們來看Node[JDK1.8]是何物。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
static class Node<K,V> implements Map.Entry<K,V> {
         final int hash;    //用來定位數組索引位置
         final K key;
         V value;
         Node<K,V> next;   //鏈表的下一個node
 
         Node( int hash, K key, V value, Node<K,V> next) { ... }
         public final K getKey(){ ... }
         public final V getValue() { ... }
         public final String toString() { ... }
         public final int hashCode() { ... }
         public final V setValue(V newValue) { ... }
         public final boolean equals(Object o) { ... }
}

Node是HashMap的一個內部類,實現了Map.Entry接口,本質是就是一個映射(鍵值對)。上圖中的每一個黑色圓點就是一個Node對象。

(2) HashMap就是使用哈希表來存儲的。哈希表爲解決衝突,能夠採用開放地址法和鏈地址法等來解決問題,Java中HashMap採用了鏈地址法。鏈地址法,簡單來講,就是數組加鏈表的結合。在每一個數組元素上都一個鏈表結構,當數據被Hash後,獲得數組下標,把數據放在對應下標元素的鏈表上。例如程序執行下面代碼:

1
map.put( "美團" , "小美" );

系統將調用」美團」這個key的hashCode()方法獲得其hashCode 值(該方法適用於每一個Java對象),而後再經過Hash算法的後兩步運算(高位運算和取模運算,下文有介紹)來定位該鍵值對的存儲位置,有時兩個key會定位到相同的位置,表示發生了Hash碰撞。固然Hash算法計算結果越分散均勻,Hash碰撞的機率就越小,map的存取效率就會越高。

若是哈希桶數組很大,即便較差的Hash算法也會比較分散,若是哈希桶數組數組很小,即便好的Hash算法也會出現較多碰撞,因此就須要在空間成本和時間成本之間權衡,其實就是在根據實際狀況肯定哈希桶數組的大小,並在此基礎上設計好的hash算法減小Hash碰撞。那麼經過什麼方式來控制map使得Hash碰撞的機率又小,哈希桶數組(Node[] table)佔用空間又少呢?答案就是好的Hash算法和擴容機制。

在理解Hash和擴容流程以前,咱們得先了解下HashMap的幾個字段。從HashMap的默認構造函數源碼可知,構造函數就是對下面幾個字段進行初始化,源碼以下:

1
2
3
4
int threshold;             // 所能容納的key-value對極限
final float loadFactor;    // 負載因子
int modCount; 
int size;

首先,Node[] table的初始化長度length(默認值是16),Load factor爲負載因子(默認值是0.75),threshold是HashMap所能容納的最大數據量的Node(鍵值對)個數。threshold = length * Load factor。也就是說,在數組定義好長度以後,負載因子越大,所能容納的鍵值對個數越多。

結合負載因子的定義公式可知,threshold就是在此Load factor和length(數組長度)對應下容許的最大元素數目,超過這個數目就從新resize(擴容),擴容後的HashMap容量是以前容量的兩倍。默認的負載因子0.75是對空間和時間效率的一個平衡選擇,建議你們不要修改,除非在時間和空間比較特殊的狀況下,若是內存空間不少而又對時間效率要求很高,能夠下降負載因子Load factor的值;相反,若是內存空間緊張而對時間效率要求不高,能夠增長負載因子loadFactor的值,這個值能夠大於1。

size這個字段其實很好理解,就是HashMap中實際存在的鍵值對數量。注意和table的長度length、容納最大鍵值對數量threshold的區別。而modCount字段主要用來記錄HashMap內部結構發生變化的次數,主要用於迭代的快速失敗。強調一點,內部結構發生變化指的是結構發生變化,例如put新鍵值對,可是某個key對應的value值被覆蓋不屬於結構變化。

在HashMap中,哈希桶數組table的長度length大小必須爲2的n次方(必定是合數),這是一種很是規的設計,常規的設計是把桶的大小設計爲素數。相對來講素數致使衝突的機率要小於合數,具體證實能夠參考http://blog.csdn.net/liuqiyao_01/article/details/14475159,Hashtable初始化桶大小爲11,就是桶大小設計爲素數的應用(Hashtable擴容後不能保證仍是素數)。HashMap採用這種很是規設計,主要是爲了在取模和擴容時作優化,同時爲了減小衝突,HashMap定位哈希桶索引位置時,也加入了高位參與運算的過程。

這裏存在一個問題,即便負載因子和Hash算法設計的再合理,也免不了會出現拉鍊過長的狀況,一旦出現拉鍊過長,則會嚴重影響HashMap的性能。因而,在JDK1.8版本中,對數據結構作了進一步的優化,引入了紅黑樹。而當鏈表長度太長(默認超過8)時,鏈表就轉換爲紅黑樹,利用紅黑樹快速增刪改查的特色提升HashMap的性能,其中會用到紅黑樹的插入、刪除、查找等算法。本文再也不對紅黑樹展開討論,想了解更多紅黑樹數據結構的工做原理能夠參考http://blog.csdn.net/v_july_v/article/details/6105630

功能實現-方法

HashMap的內部功能實現不少,本文主要從根據key獲取哈希桶數組索引位置、put方法的詳細執行、擴容過程三個具備表明性的點深刻展開講解。

1. 肯定哈希桶數組索引位置

無論增長、刪除、查找鍵值對,定位到哈希桶數組的位置都是很關鍵的第一步。前面說過HashMap的數據結構是數組和鏈表的結合,因此咱們固然但願這個HashMap裏面的元素位置儘可能分佈均勻些,儘可能使得每一個位置上的元素數量只有一個,那麼當咱們用hash算法求得這個位置的時候,立刻就能夠知道對應位置的元素就是咱們要的,不用遍歷鏈表,大大優化了查詢的效率。HashMap定位數組索引位置,直接決定了hash方法的離散性能。先看看源碼的實現(方法一+方法二):

1
2
3
4
5
6
7
8
9
10
11
方法一:
static final int hash(Object key) {   //jdk1.8 & jdk1.7
      int h;
      // h = key.hashCode() 爲第一步 取hashCode值
      // h ^ (h >>> 16)  爲第二步 高位參與運算
      return (key == null ) ? 0 : (h = key.hashCode()) ^ (h >>> 16 );
}
方法二:
static int indexFor( int h, int length) {  //jdk1.7的源碼,jdk1.8沒有這個方法,可是實現原理同樣的
      return h & (length- 1 );  //第三步 取模運算
}

這裏的Hash算法本質上就是三步:取key的hashCode值、高位運算、取模運算

對於任意給定的對象,只要它的hashCode()返回值相同,那麼程序調用方法一所計算獲得的Hash碼值老是相同的。咱們首先想到的就是把hash值對數組長度取模運算,這樣一來,元素的分佈相對來講是比較均勻的。可是,模運算的消耗仍是比較大的,在HashMap中是這樣作的:調用方法二來計算該對象應該保存在table數組的哪一個索引處。

這個方法很是巧妙,它經過h & (table.length -1)來獲得該對象的保存位,而HashMap底層數組的長度老是2的n次方,這是HashMap在速度上的優化。當length老是2的n次方時,h& (length-1)運算等價於對length取模,也就是h%length,可是&比%具備更高的效率。

在JDK1.8的實現中,優化了高位運算的算法,經過hashCode()的高16位異或低16位實現的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這麼作能夠在數組table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。

下面舉例說明下,n爲table的長度。

hashMap哈希算法例圖

2. 分析HashMap的put方法

HashMap的put方法執行過程能夠經過下圖來理解,本身有興趣能夠去對比源碼更清楚地研究學習。

hashMap put方法執行流程圖

①.判斷鍵值對數組table[i]是否爲空或爲null,不然執行resize()進行擴容;

②.根據鍵值key計算hash值獲得插入的數組索引i,若是table[i]==null,直接新建節點添加,轉向⑥,若是table[i]不爲空,轉向③;

③.判斷table[i]的首個元素是否和key同樣,若是相同直接覆蓋value,不然轉向④,這裏的相同指的是hashCode以及equals;

④.判斷table[i] 是否爲treeNode,即table[i] 是不是紅黑樹,若是是紅黑樹,則直接在樹中插入鍵值對,不然轉向⑤;

⑤.遍歷table[i],判斷鏈表長度是否大於8,大於8的話把鏈表轉換爲紅黑樹,在紅黑樹中執行插入操做,不然進行鏈表的插入操做;遍歷過程當中若發現key已經存在直接覆蓋value便可;

⑥.插入成功後,判斷實際存在的鍵值對數量size是否超多了最大容量threshold,若是超過,進行擴容。

JDK1.8HashMap的put方法源碼以下:

1     public V put(K key, V value) {
  2     // 對key的hashCode()作hash
  3     return putVal(hash(key), key, value, false , true );
  4 }
  5
  6 final V putVal( int hash, K key, V value, boolean onlyIfAbsent,
  7                boolean evict) {
  8     Node<K,V>[] tab; Node<K,V> p; int n, i;
  9     // 步驟①:tab爲空則建立
10     if ((tab = table) == null || (n = tab.length) == 0 )
11         n = (tab = resize()).length;
12     // 步驟②:計算index,並對null作處理
13     if ((p = tab[i = (n - 1 ) & hash]) == null )
14         tab[i] = newNode(hash, key, value, null );
15     else {
16         Node<K,V> e; K k;
17         // 步驟③:節點key存在,直接覆蓋value
18         if (p.hash == hash &&
19             ((k = p.key) == key || (key != null && key.equals(k))))
20             e = p;
21         // 步驟④:判斷該鏈爲紅黑樹
22         else if (p instanceof TreeNode)
23             e = ((TreeNode<K,V>)p).putTreeVal( this , tab, hash, key, value);
24         // 步驟⑤:該鏈爲鏈表
25         else {
26             for ( int binCount = 0 ; ; ++binCount) {
27                 if ((e = p.next) == null ) {
28                     p.next = newNode(hash, key,value, null );
                         //鏈表長度大於8轉換爲紅黑樹進行處理
29                     if (binCount >= TREEIFY_THRESHOLD - 1 ) // -1 for 1st 
30                         treeifyBin(tab, hash);
31                     break ;
32                 }
                     // key已經存在直接覆蓋value
33                 if (e.hash == hash &&
34                     ((k = e.key) == key || (key != null && key.equals(k))))                                            break ;
36                 p = e;
37             }
38         }
39        
40         if (e != null ) { // existing mapping for key
41             V oldValue = e.value;
42             if (!onlyIfAbsent || oldValue == null )
43                 e.value = value;
44             afterNodeAccess(e);
45             return oldValue;
46         }
47     }
 
48     ++modCount;
49     // 步驟⑥:超過最大容量 就擴容
50     if (++size > threshold)
51         resize();
52     afterNodeInsertion(evict);
53     return null ;
54 }

3. 擴容機制

擴容(resize)就是從新計算容量,向HashMap對象裏不停的添加元素,而HashMap對象內部的數組沒法裝載更多的元素時,對象就須要擴大數組的長度,以便能裝入更多的元素。固然Java裏的數組是沒法自動擴容的,方法是使用一個新的數組代替已有的容量小的數組,就像咱們用一個小桶裝水,若是想裝更多的水,就得換大水桶。

咱們分析下resize的源碼,鑑於JDK1.8融入了紅黑樹,較複雜,爲了便於理解咱們仍然使用JDK1.7的代碼,好理解一些,本質上區別不大,具體區別後文再說。

1 void resize( int newCapacity) {   //傳入新的容量
  2     Entry[] oldTable = table;    //引用擴容前的Entry數組
  3     int oldCapacity = oldTable.length;        
  4     if (oldCapacity == MAXIMUM_CAPACITY) {  //擴容前的數組大小若是已經達到最大(2^30)了
  5         threshold = Integer.MAX_VALUE; //修改閾值爲int的最大值(2^31-1),這樣之後就不會擴容了
  6         return ;
  7     }
  8 
  9     Entry[] newTable = new Entry[newCapacity];  //初始化一個新的Entry數組
10     transfer(newTable);                         //!!將數據轉移到新的Entry數組裏
11     table = newTable;                           //HashMap的table屬性引用新的Entry數組
12     threshold = ( int )(newCapacity * loadFactor); //修改閾值
13 }

這裏就是使用一個容量更大的數組來代替已有的容量小的數組,transfer()方法將原有Entry數組的元素拷貝到新的Entry數組裏。

1 void transfer(Entry[] newTable) {
  2     Entry[] src = table;                   //src引用了舊的Entry數組
  3     int newCapacity = newTable.length;
  4     for ( int j = 0 ; j < src.length; j++) { //遍歷舊的Entry數組
  5         Entry<K,V> e = src[j];             //取得舊Entry數組的每一個元素
  6         if (e != null ) {
  7             src[j] = null ; //釋放舊Entry數組的對象引用(for循環後,舊的Entry數組再也不引用任何對象)
  8             do {
  9                 Entry<K,V> next = e.next;
10                 int i = indexFor(e.hash, newCapacity); //!!從新計算每一個元素在數組中的位置
11                 e.next = newTable[i]; //標記[1]
12                 newTable[i] = e;      //將元素放在數組上
13                 e = next;             //訪問下一個Entry鏈上的元素
14             } while (e != null );
15         }
16     }
17 }

newTable[i]的引用賦給了e.next,也就是使用了單鏈表的頭插入方式,同一位置上新元素總會被放在鏈表的頭部位置;這樣先放在一個索引上的元素終會被放到Entry鏈的尾部(若是發生了hash衝突的話),這一點和Jdk1.8有區別,下文詳解。在舊數組中同一條Entry鏈上的元素,經過從新計算索引位置後,有可能被放到了新數組的不一樣位置上。

下面舉個例子說明下擴容過程。假設了咱們的hash算法就是簡單的用key mod 一下表的大小(也就是數組的長度)。其中的哈希桶數組table的size=2, 因此key = 三、七、5,put順序依次爲 五、七、3。在mod 2之後都衝突在table[1]這裏了。這裏假設負載因子 loadFactor=1,即當鍵值對的實際大小size 大於 table的實際大小時進行擴容。接下來的三個步驟是哈希桶數組 resize成4,而後全部的Node從新rehash的過程。

jdk1.7擴容例圖

下面咱們講解下JDK1.8作了哪些優化。通過觀測能夠發現,咱們使用的是2次冪的擴展(指長度擴爲原來2倍),因此,元素的位置要麼是在原位置,要麼是在原位置再移動2次冪的位置。看下圖能夠明白這句話的意思,n爲table的長度,圖(a)表示擴容前的key1和key2兩種key肯定索引位置的示例,圖(b)表示擴容後key1和key2兩種key肯定索引位置的示例,其中hash1是key1對應的哈希與高位運算結果。

hashMap 1.8 哈希算法例圖1

元素在從新計算hash以後,由於n變爲2倍,那麼n-1的mask範圍在高位多1bit(紅色),所以新的index就會發生這樣的變化:

hashMap 1.8 哈希算法例圖2

所以,咱們在擴充HashMap的時候,不須要像JDK1.7的實現那樣從新計算hash,只須要看看原來的hash值新增的那個bit是1仍是0就行了,是0的話索引沒變,是1的話索引變成「原索引+oldCap」,能夠看看下圖爲16擴充爲32的resize示意圖:

jdk1.8 hashMap擴容例圖

這個設計確實很是的巧妙,既省去了從新計算hash值的時間,並且同時,因爲新增的1bit是0仍是1能夠認爲是隨機的,所以resize的過程,均勻的把以前的衝突的節點分散到新的bucket了。這一塊就是JDK1.8新增的優化點。有一點注意區別,JDK1.7中rehash的時候,舊鏈表遷移新鏈表的時候,若是在新表的數組索引位置相同,則鏈表元素會倒置,可是從上圖能夠看出,JDK1.8不會倒置。有興趣的同窗能夠研究下JDK1.8的resize源碼,寫的很贊,以下:

1 final Node<K,V>[] resize() {
  2     Node<K,V>[] oldTab = table;
  3     int oldCap = (oldTab == null ) ? 0 : oldTab.length;
  4     int oldThr = threshold;
  5     int newCap, newThr = 0 ;
  6     if (oldCap > 0 ) {
  7         // 超過最大值就再也不擴充了,就只好隨你碰撞去吧
  8         if (oldCap >= MAXIMUM_CAPACITY) {
  9             threshold = Integer.MAX_VALUE;
10             return oldTab;
11         }
12         // 沒超過最大值,就擴充爲原來的2倍
13         else if ((newCap = oldCap << 1 ) < MAXIMUM_CAPACITY &&
14                  oldCap >= DEFAULT_INITIAL_CAPACITY)
15             newThr = oldThr << 1 ; // double threshold
16     }
17     else if (oldThr > 0 ) // initial capacity was placed in threshold
18         newCap = oldThr;
19     else {               // zero initial threshold signifies using defaults
20         newCap = DEFAULT_INITIAL_CAPACITY;
21         newThr = ( int )(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
22     }
23     // 計算新的resize上限
24     if (newThr == 0 ) {
25
26         float ft = ( float )newCap * loadFactor;
27         newThr = (newCap < MAXIMUM_CAPACITY && ft < ( float )MAXIMUM_CAPACITY ?
28                   ( int )ft : Integer.MAX_VALUE);
29     }
30     threshold = newThr;
31     @SuppressWarnings ({ "rawtypes" "unchecked" })
32         Node<K,V>[] newTab = (Node<K,V>[]) new Node[newCap];
33     table = newTab;
34     if (oldTab != null ) {
35         // 把每一個bucket都移動到新的buckets中
36         for ( int j = 0 ; j < oldCap; ++j) {
37             Node<K,V> e;
38             if ((e = oldTab[j]) != null ) {
39                 oldTab[j] = null ;
40                 if (e.next == null )
41                     newTab[e.hash & (newCap - 1 )] = e;
42                 else if (e instanceof TreeNode)
43                     ((TreeNode<K,V>)e).split( this , newTab, j, oldCap);
44                 else { // 鏈表優化重hash的代碼塊
45                     Node<K,V> loHead = null , loTail = null ;
46                     Node<K,V> hiHead = null , hiTail = null ;
47                     Node<K,V> next;
48                     do {
49                         next = e.next;
50                         // 原索引
51                         if ((e.hash & oldCap) == 0 ) {
52                             if (loTail == null )
53                                 loHead = e;
54                             else
55                                 loTail.next = e;
56                             loTail = e;
57                         }
58                         // 原索引+oldCap
59                         else {
60                             if (hiTail == null )
61                                 hiHead = e;
62                             else
63                                 hiTail.next = e;
64                             hiTail = e;
65                         }
66                     } while ((e = next) != null );
67                     // 原索引放到bucket裏
68                     if (loTail != null ) {
69                         loTail.next = null ;
70                         newTab[j] = loHead;
71                     }
72                     // 原索引+oldCap放到bucket裏
73                     if (hiTail != null ) {
74                         hiTail.next = null ;
75                         newTab[j + oldCap] = hiHead;
76                     }
77                 }
78             }
79         }
80     }
81     return newTab;
82 }

線程安全性

在多線程使用場景中,應該儘可能避免使用線程不安全的HashMap,而使用線程安全的ConcurrentHashMap。那麼爲何說HashMap是線程不安全的,下面舉例子說明在併發的多線程使用場景中使用HashMap可能形成死循環。代碼例子以下(便於理解,仍然使用JDK1.7的環境):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
public class HashMapInfiniteLoop { 
 
     private static HashMap<Integer,String> map = new HashMap<Integer,String>( 2 0 .75f); 
     public static void main(String[] args) { 
         map.put( 5 "C" ); 
 
         new Thread( "Thread1" ) { 
             public void run() { 
                 map.put( 7 , "B" ); 
                 System.out.println(map); 
             }; 
         }.start(); 
         new Thread( "Thread2" ) { 
             public void run() { 
                 map.put( 3 , "A); 
                 System.out.println(map); 
             }; 
         }.start();       
    
}

其中,map初始化爲一個長度爲2的數組,loadFactor=0.75,threshold=2*0.75=1,也就是說當put第二個key的時候,map就須要進行resize。

經過設置斷點讓線程1和線程2同時debug到transfer方法(3.3小節代碼塊)的首行。注意此時兩個線程已經成功添加數據。放開thread1的斷點至transfer方法的「Entry next = e.next;」 這一行;而後放開線程2的的斷點,讓線程2進行resize。結果以下圖。

jdk1.7 hashMap死循環例圖1

注意,Thread1的 e 指向了key(3),而next指向了key(7),其在線程二rehash後,指向了線程二重組後的鏈表。

線程一被調度回來執行,先是執行 newTalbe[i] = e, 而後是e = next,致使了e指向了key(7),而下一次循環的next = e.next致使了next指向了key(3)。

jdk1.7 hashMap死循環例圖2

jdk1.7 hashMap死循環例圖3

e.next = newTable[i] 致使 key(3).next 指向了 key(7)。注意:此時的key(7).next 已經指向了key(3), 環形鏈表就這樣出現了。

jdk1.7 hashMap死循環例圖4

因而,當咱們用線程一調用map.get(11)時,悲劇就出現了——Infinite Loop。

JDK1.8與JDK1.7的性能對比

HashMap中,若是key通過hash算法得出的數組索引位置所有不相同,即Hash算法很是好,那樣的話,getKey方法的時間複雜度就是O(1),若是Hash算法技術的結果碰撞很是多,假如Hash算極其差,全部的Hash算法結果得出的索引位置同樣,那樣全部的鍵值對都集中到一個桶中,或者在一個鏈表中,或者在一個紅黑樹中,時間複雜度分別爲O(n)和O(lgn)。 鑑於JDK1.8作了多方面的優化,整體性能優於JDK1.7,下面咱們從兩個方面用例子證實這一點。

Hash較均勻的狀況

爲了便於測試,咱們先寫一個類Key,以下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
class Key implements Comparable<Key> {
 
     private final int value;
 
     Key( int value) {
         this .value = value;
     }
 
     @Override
     public int compareTo(Key o) {
         return Integer.compare( this .value, o.value);
     }
 
     @Override
     public boolean equals(Object o) {
         if ( this == o) return true ;
         if (o == null || getClass() != o.getClass())
             return false ;
         Key key = (Key) o;
         return value == key.value;
     }
 
     @Override
     public int hashCode() {
         return value;
     }
}

這個類複寫了equals方法,而且提供了至關好的hashCode函數,任何一個值的hashCode都不會相同,由於直接使用value當作hashcode。爲了不頻繁的GC,我將不變的Key實例緩存了起來,而不是一遍一遍的建立它們。代碼以下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
public class Keys {
 
     public static final int MAX_KEY = 10_000_000;
     private static final Key[] KEYS_CACHE = new Key[MAX_KEY];
 
     static {
         for ( int i = 0 ; i < MAX_KEY; ++i) {
             KEYS_CACHE[i] = new Key(i);
         }
     }
 
     public static Key of( int value) {
         return KEYS_CACHE[value];
     }
}

如今開始咱們的試驗,測試須要作的僅僅是,建立不一樣size的HashMap(一、十、100、……10000000),屏蔽了擴容的狀況,代碼以下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
static void test( int mapSize) {
 
        HashMap<Key, Integer> map = new HashMap<Key,Integer>(mapSize);
        for ( int i = 0 ; i < mapSize; ++i) {
            map.put(Keys.of(i), i);
        }
 
        long beginTime = System.nanoTime(); //獲取納秒
        for ( int i = 0 ; i < mapSize; i++) {
            map.get(Keys.of(i));
        }
        long endTime = System.nanoTime();
        System.out.println(endTime - beginTime);
    }
 
    public static void main(String[] args) {
        for ( int i= 10 ;i<= 1000 0000 ;i*= 10 ){
            test(i);
        }
    }

在測試中會查找不一樣的值,而後度量花費的時間,爲了計算getKey的平均時間,咱們遍歷全部的get方法,計算總的時間,除以key的數量,計算一個平均值,主要用來比較,絕對值可能會受不少環境因素的影響。結果以下:

性能比較表1.png

經過觀測測試結果可知,JDK1.8的性能要高於JDK1.7 15%以上,在某些size的區域上,甚至高於100%。因爲Hash算法較均勻,JDK1.8引入的紅黑樹效果不明顯,下面咱們看看Hash不均勻的的狀況。

Hash極不均勻的狀況

假設咱們又一個很是差的Key,它們全部的實例都返回相同的hashCode值。這是使用HashMap最壞的狀況。代碼修改以下:

1
2
3
4
5
6
7
8
9
class Key implements Comparable<Key> {
 
     //...
 
     @Override
     public int hashCode() {
         return 1 ;
     }
}

仍然執行main方法,得出的結果以下表所示:

性能比較表2.png

從表中結果中可知,隨着size的變大,JDK1.7的花費時間是增加的趨勢,而JDK1.8是明顯的下降趨勢,而且呈現對數增加穩定。當一個鏈表太長的時候,HashMap會動態的將它替換成一個紅黑樹,這話的話會將時間複雜度從O(n)降爲O(logn)。hash算法均勻和不均勻所花費的時間明顯也不相同,這兩種狀況的相對比較,能夠說明一個好的hash算法的重要性。

      測試環境:處理器爲2.2 GHz Intel Core i7,內存爲16 GB 1600 MHz DDR3,SSD硬盤,使用默認的JVM參數,運行在64位的OS X 10.10.1上。

小結

(1) 擴容是一個特別耗性能的操做,因此當程序員在使用HashMap的時候,估算map的大小,初始化的時候給一個大體的數值,避免map進行頻繁的擴容。

(2) 負載因子是能夠修改的,也能夠大於1,可是建議不要輕易修改,除非狀況很是特殊。

(3) HashMap是線程不安全的,不要在併發的環境中同時操做HashMap,建議使用ConcurrentHashMap。

(4) JDK1.8引入紅黑樹大程度優化了HashMap的性能。

(5) 還沒升級JDK1.8的,如今開始升級吧。HashMap的性能提高僅僅是JDK1.8的冰山一角。

參考

  1. JDK1.7&JDK1.8 源碼。
  2. CSDN博客頻道,HashMap多線程死循環問題,2014。
  3. 紅黑聯盟,Java類集框架之HashMap(JDK1.8)源碼剖析,2015。
  4. CSDN博客頻道, 教你初步瞭解紅黑樹,2010。
  5. Java Code Geeks,HashMap performance improvements in Java 8,2014。
  6. Importnew,危險!在HashMap中將可變對象用做Key,2014。
  7. CSDN博客頻道,爲何通常hashtable的桶數會取一個素數,2013。
相關文章
相關標籤/搜索