搞清楚HashMap,首先須要知道HashMap是什麼,即它的存儲結構-字段;其次弄明白它能幹什麼,即它的功能實現-方法。下面咱們針對這兩個方面詳細展開講解。node
從結構實現來說,HashMap是數組+鏈表+紅黑樹(JDK1.8增長了紅黑樹部分)實現的,以下如所示。程序員
這裏須要講明白兩個問題:數據底層具體存儲的是什麼?這樣的存儲方式有什麼優勢呢?算法
(1) 從源碼可知,HashMap類中有一個很是重要的字段,就是 Node[] table,即哈希桶數組,明顯它是一個Node的數組。咱們來看Node[JDK1.8]是何物。編程
static class Node<K,V> implements Map.Entry<K,V> { final int hash; //用來定位數組索引位置 final K key; V value; Node<K,V> next; //鏈表的下一個node Node(int hash, K key, V value, Node<K,V> next) { ... } public final K getKey(){ ... } public final V getValue() { ... } public final String toString() { ... } public final int hashCode() { ... } public final V setValue(V newValue) { ... } public final boolean equals(Object o) { ... } } |
Node是HashMap的一個內部類,實現了Map.Entry接口,本質是就是一個映射(鍵值對)。上圖中的每一個黑色圓點就是一個Node對象。數組
(2) HashMap就是使用哈希表來存儲的。哈希表爲解決衝突,能夠採用開放地址法和鏈地址法等來解決問題,Java中HashMap採用了鏈地址法。鏈地址法,簡單來講,就是數組加鏈表的結合。在每一個數組元素上都一個鏈表結構,當數據被Hash後,獲得數組下標,把數據放在對應下標元素的鏈表上。例如程序執行下面代碼:緩存
map.put("美團","小美");
系統將調用」美團」這個key的hashCode()方法獲得其hashCode 值(該方法適用於每一個Java對象),而後再經過Hash算法的後兩步運算(高位運算和取模運算,下文有介紹)來定位該鍵值對的存儲位置,有時兩個key會定位到相同的位置,表示發生了Hash碰撞。固然Hash算法計算結果越分散均勻,Hash碰撞的機率就越小,map的存取效率就會越高。安全
若是哈希桶數組很大,即便較差的Hash算法也會比較分散,若是哈希桶數組數組很小,即便好的Hash算法也會出現較多碰撞,因此就須要在空間成本和時間成本之間權衡,其實就是在根據實際狀況肯定哈希桶數組的大小,並在此基礎上設計好的hash算法減小Hash碰撞。那麼經過什麼方式來控制map使得Hash碰撞的機率又小,哈希桶數組(Node[] table)佔用空間又少呢?答案就是好的Hash算法和擴容機制。數據結構
在理解Hash和擴容流程以前,咱們得先了解下HashMap的幾個字段。從HashMap的默認構造函數源碼可知,構造函數就是對下面幾個字段進行初始化,源碼以下:多線程
int threshold; // 所能容納的key-value對極限 final float loadFactor; // 負載因子 int modCount; int size;
首先,Node[] table的初始化長度length(默認值是16),Load factor爲負載因子(默認值是0.75),threshold是HashMap所能容納的最大數據量的Node(鍵值對)個數。threshold = length * Load factor。也就是說,在數組定義好長度以後,負載因子越大,所能容納的鍵值對個數越多。併發
結合負載因子的定義公式可知,threshold就是在此Load factor和length(數組長度)對應下容許的最大元素數目,超過這個數目就從新resize(擴容),擴容後的HashMap容量是以前容量的兩倍。默認的負載因子0.75是對空間和時間效率的一個平衡選擇,建議你們不要修改,除非在時間和空間比較特殊的狀況下,若是內存空間不少而又對時間效率要求很高,能夠下降負載因子Load factor的值;相反,若是內存空間緊張而對時間效率要求不高,能夠增長負載因子loadFactor的值,這個值能夠大於1。
size這個字段其實很好理解,就是HashMap中實際存在的鍵值對數量。注意和table的長度length、容納最大鍵值對數量threshold的區別。而modCount字段主要用來記錄HashMap內部結構發生變化的次數,主要用於迭代的快速失敗。強調一點,內部結構發生變化指的是結構發生變化,例如put新鍵值對,可是某個key對應的value值被覆蓋不屬於結構變化。
在HashMap中,哈希桶數組table的長度length大小必須爲2的n次方(必定是合數),這是一種很是規的設計,常規的設計是把桶的大小設計爲素數。相對來講素數致使衝突的機率要小於合數,具體證實能夠參考http://blog.csdn.net/liuqiyao_01/article/details/14475159,Hashtable初始化桶大小爲11,就是桶大小設計爲素數的應用(Hashtable擴容後不能保證仍是素數)。HashMap採用這種很是規設計,主要是爲了在取模和擴容時作優化(X % 2^n = X & (2^n - 1),而且2倍擴容保證擴容後容量也是2^n),同時爲了減小衝突,HashMap定位哈希桶索引位置時,也加入了高位參與運算的過程。
這裏存在一個問題,即便負載因子和Hash算法設計的再合理,也免不了會出現拉鍊過長的狀況,一旦出現拉鍊過長,則會嚴重影響HashMap的性能。因而,在JDK1.8版本中,對數據結構作了進一步的優化,引入了紅黑樹。而當鏈表長度太長(默認超過8)時,鏈表就轉換爲紅黑樹,利用紅黑樹快速增刪改查的特色提升HashMap的性能,其中會用到紅黑樹的插入、刪除、查找等算法。本文再也不對紅黑樹展開討論,想了解更多紅黑樹數據結構的工做原理能夠參考http://blog.csdn.net/v_july_v/article/details/6105630。
HashMap的內部功能實現不少,本文主要從根據key獲取哈希桶數組索引位置、put方法的詳細執行、擴容過程三個具備表明性的點深刻展開講解。
無論增長、刪除、查找鍵值對,定位到哈希桶數組的位置都是很關鍵的第一步。前面說過HashMap的數據結構是數組和鏈表的結合,因此咱們固然但願這個HashMap裏面的元素位置儘可能分佈均勻些,儘可能使得每一個位置上的元素數量只有一個,那麼當咱們用hash算法求得這個位置的時候,立刻就能夠知道對應位置的元素就是咱們要的,不用遍歷鏈表,大大優化了查詢的效率。HashMap定位數組索引位置,直接決定了hash方法的離散性能。先看看源碼的實現(方法一+方法二):
方法一: final int hash(Object k) { //jdk1.7 int h = hashSeed; if (0 != h && k instanceof String) { return sun.misc.Hashing.stringHash32((String) k); } h ^= k.hashCode(); // This function ensures that hashCodes that differ only by // constant multiples at each bit position have a bounded // number of collisions (approximately 8 at default load factor). h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } static final int hash(Object key) { //jdk1.8 int h; // h = key.hashCode() 爲第一步 取hashCode值 // h ^ (h >>> 16) 爲第二步 高位參與運算 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } 方法二: static int indexFor(int h, int length) { //jdk1.7的源碼,jdk1.8沒有這個方法,可是實現原理同樣的 return h & (length-1); //第三步 取模運算 } |
JDK7中 HashMap 的hash方法解析: http://www.iteye.com/topic/709945
這裏的Hash算法本質上就是三步:取key的hashCode值、高位運算、取模運算。
對於任意給定的對象,只要它的hashCode()返回值相同,那麼程序調用方法一所計算獲得的Hash碼值老是相同的。咱們首先想到的就是把hash值對數組長度取模運算,這樣一來,元素的分佈相對來講是比較均勻的。可是,模運算的消耗仍是比較大的,在HashMap中是這樣作的:調用方法二來計算該對象應該保存在table數組的哪一個索引處。
這個方法很是巧妙,它經過h & (table.length -1)來獲得該對象的保存位,而HashMap底層數組的長度老是2的n次方,這是HashMap在速度上的優化。當length老是2的n次方時,h& (length-1)運算等價於對length取模,也就是h%length,可是&比%具備更高的效率。
在JDK1.8的實現中,優化了高位運算的算法,經過hashCode()的高16位異或低16位實現的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這麼作能夠在數組table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。
下面舉例說明下,n爲table的長度。
而且,高16位位運算向右移16位與低16位異或運算,實現均衡分配獲得1或者0的機率都是1/2,而&(與)運算獲得0的機率較大爲75%,| (或)運算獲得1的機率較大爲75%。
HashMap的put方法執行過程能夠經過下圖來理解,本身有興趣能夠去對比源碼更清楚地研究學習。
①.判斷鍵值對數組table[i]是否爲空或爲null,不然執行resize()進行擴容;
②.根據鍵值key計算hash值獲得插入的數組索引i,若是table[i]==null,直接新建節點添加,轉向⑥,若是table[i]不爲空,轉向③;
③.判斷table[i]的首個元素是否和key同樣,若是相同直接覆蓋value,不然轉向④,這裏的相同指的是hashCode以及equals;
④.判斷table[i] 是否爲treeNode,即table[i] 是不是紅黑樹,若是是紅黑樹,則直接在樹中插入鍵值對,不然轉向⑤;
⑤.遍歷table[i],判斷鏈表長度是否大於8,大於8的話把鏈表轉換爲紅黑樹,在紅黑樹中執行插入操做,不然進行鏈表的插入操做;遍歷過程當中若發現key已經存在直接覆蓋value便可;
⑥.插入成功後,判斷實際存在的鍵值對數量size是否超多了最大容量threshold,若是超過,進行擴容。
JDK1.8HashMap的put方法源碼以下:
public V put(K key, V value) { // 對key的hashCode()作hash return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; // 步驟①:tab爲空則建立 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; // 步驟②:計算index,並對null作處理 ,注意if中的代碼,將計算到的table索引i處的值賦予Node p,並判斷是否null // 若是tab[i]/p處爲null,則將新的元素節點添加到tab[i],若是tab[i]/p處不爲null,進入else分支 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { // Node<K,V> e; K k; // 步驟③:此時變量p爲tab[i]處的原節點,判斷新節點key與p節點的key是否相同,相同直接覆蓋value,不相同向後走流程。 // 注意此時p只是tab[i]處的原節點,並不是整個鏈表或紅黑樹 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; // 步驟④:若是新添加的節點key在tab[i]處 判斷該鏈爲紅黑樹 else if (p instanceof TreeNode) // 將新節點添加到紅黑樹中 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); // 步驟⑤:若是該鏈爲鏈表 else { // 遍歷節點 for (int binCount = 0; ; ++binCount) { // 判斷p節點的next節點是否爲null,若是爲null,將新節點添加到p的next處。 // 將e賦值爲p的next節點 if ((e = p.next) == null) { p.next = newNode(hash, key,value,null); //鏈表長度大於8轉換爲紅黑樹進行處理 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } // 判斷p都後續節點key是否和新添加的key相同,若是相同直接覆蓋value if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; // 此時將p設置爲它的next節點 p = e; } } //通過上面的處理,e變量表明被新添加的節點覆蓋的節點 if (e != null) { //替換原節點的value爲覆蓋的value V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; // 步驟⑥:超過最大容量 就擴容 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; } |
擴容(resize)就是從新計算容量,向HashMap對象裏不停的添加元素,而HashMap對象內部的數組沒法裝載更多的元素時,對象就須要擴大數組的長度,以便能裝入更多的元素。固然Java裏的數組是沒法自動擴容的,方法是使用一個新的數組代替已有的容量小的數組,就像咱們用一個小桶裝水,若是想裝更多的水,就得換大水桶。
咱們分析下resize的源碼,鑑於JDK1.8融入了紅黑樹,較複雜,爲了便於理解咱們仍然使用JDK1.7的代碼,好理解一些,本質上區別不大,具體區別後文再說。
void resize(int newCapacity) { //傳入新的容量 Entry[] oldTable = table; //引用擴容前的Entry數組 int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的數組大小若是已經達到最大(2^30)了 threshold = Integer.MAX_VALUE; //修改閾值爲int的最大值(2^31-1),這樣之後就不會擴容了 return; } Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry數組 transfer(newTable); //!!將數據轉移到新的Entry數組裏 table = newTable; //HashMap的table屬性引用新的Entry數組 threshold = (int)(newCapacity * loadFactor);//修改閾值 } |
這裏就是使用一個容量更大的數組來代替已有的容量小的數組,transfer()方法將原有Entry數組的元素拷貝到新的Entry數組裏。
void transfer(Entry[] newTable) { Entry[] src = table; //src引用了舊的Entry數組 int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數組 Entry<K,V> e = src[j]; //取得舊Entry數組的每一個元素,將取到的元素存儲到變量e中 if (e != null) { src[j] = null;//釋放舊Entry數組的對象引用(for循環後,舊的Entry數組再也不引用任何對象) do { Entry<K,V> next = e.next;// 將鏈表中的當前指向節點e的next節點,保存到next變量中 int i = indexFor(e.hash, newCapacity); //從新計算元素在HashMap的value數組中的位置 e.next = newTable[i]; //將新數組newTable[i]中存儲的值指向當前節點e的next節點 newTable[i] = e; //將當前節點e指向新數組的newTable[i]上,使e稱爲newTable[i]中保存鏈表的頭結點,這樣e節點就添加到了newTable[i]中 e = next; //將當前節點e原來的next節點,變爲當前處理節點e } while (e != null); } } } |
newTable[i]的引用賦給了e.next,也就是使用了單鏈表的頭插入方式,同一位置上新元素總會被放在鏈表的頭部位置;這樣先放在一個索引上的元素終會被放到Entry鏈的尾部(若是發生了hash衝突的話),這一點和Jdk1.8有區別,下文詳解。在舊數組中同一條Entry鏈上的元素,經過從新計算索引位置後,有可能被放到了新數組的不一樣位置上。
下面舉個例子說明下擴容過程。假設了咱們的hash算法就是簡單的用key mod 一下表的大小(也就是數組的長度)。其中的哈希桶數組table的size=2, 因此key = 三、七、5,put順序依次爲 五、七、3。在mod 2之後都衝突在table[1]這裏了。這裏假設負載因子 loadFactor=1,即當鍵值對的實際大小size 大於 table的實際大小時進行擴容。接下來的三個步驟是哈希桶數組 resize成4,而後全部的Node從新rehash的過程。
JDK1.7中,resize時,index取得時,所有采用從新hash的方式進行了。JDK1.8對這個進行了改善。
之前要肯定index的時候用的是(e.hash & oldCap-1)(參考上面的JDK1.7的transfer方法),是取模取餘。而JDK1.8用到的是(e.hash & oldCap)(參看下面JDK1.8的resize方法),它有兩種結果,一個是0,一個是oldCap。
好比:
e.hash 0000 1010 e.hash 0001 1010
& &
oldCap 0001 0000 oldCap 0001 0000
------------------------- ------------------------
0000 0000 0001 0000
再好比oldCap=8,hash是3,11,19,27時,(e.hash & oldCap)的結果是0,8,0,8,這樣3,19組成新的鏈表,index爲3;而11,27組成新的鏈表,新分配的index爲3+8;
JDK1.7中重寫hash是(e.hash & newCap-1),也就是3,11,19,27對16取餘,也是3,11,3,11,和上面的結果同樣,可是index爲3的鏈表是19,3,index爲3+8的鏈表是27,11,也就是說1.7中通過resize後數據的順序變成了倒敘,而1.8沒有改變順序。
這個設計確實很是的巧妙,省去了JDK1.7中從新計算hash值的時間提升了效率,經過&運算直接就能夠從新肯定元素index的位置,所以resize的過程,均勻的把以前的衝突的節點分散到新的bucket了。這一塊就是JDK1.8新增的優化點。有一點注意區別,JDK1.7中rehash的時候,舊鏈表遷移新鏈表的時候,若是在新表的數組索引位置相同,則鏈表元素會倒置,而JDK1.8的處理方式不會倒置。有興趣的同窗能夠研究下JDK1.8的resize源碼,寫的很贊,以下:
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; // 未擴容的舊錶 int oldCap = (oldTab == null) ? 0 : oldTab.length; // 舊錶長度 int oldThr = threshold; // 舊錶所能容納的key-value對極限 int newCap, newThr = 0; if (oldCap > 0) { // 超過最大值就再也不擴充了,就只好隨你碰撞去吧 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 沒超過最大值,就擴充爲原來的2倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 計算新的resize上限 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { // 把每一個bucket都移動到新的buckets中 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // 鏈表優化重hash的代碼塊,此處是爲了防止擴容後元素順序改變作的優化 // loHead是記錄擴容後位置不發生改變的元素,loTail 用來處理鏈表尾節點的變量,雖然在loTail中處理next節點指向,可是同時也設置了loHead中next節點的指向 // hiHead是記錄擴容後位置發生改變的元素,hiTail 用來處理鏈表尾節點的變量,雖然在hiHead 中處理next節點指向,可是同時也設置了hiHead中next節點的指向 Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { //獲取當前節點的下一個元素 next = e.next; //e.hash & oldCap 說明e.hash後的值小於oldCap,即便擴充了,也是擴充鏈表的後半部分,前面已經有的元素仍是在原來的位置 if ((e.hash & oldCap) == 0) { //若是loTail==null說明是第一個元素,把這個元素賦值給loHead if (loTail == null) loHead = e; else //若是不是第一個元素,就把他加到後面 loTail.next = e; loTail = e; } //若是這裏面的代碼,則說明,新的元素的key值的hash已經超過了oldCap,全部要加入到新庫充的鏈表hiHead 中 else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 原索引放到bucket裏 if (loTail != null) { loTail.next = null; //將下標只想鏈表的第一個元素 newTab[j] = loHead; } // 原索引+oldCap放到bucket裏 if (hiTail != null) { hiTail.next = null; //下標j + oldCap指向第二個鏈表的頭,緣由是e.hash & oldCap ==0 說明,以前的容量尚未填滿 知道 !=0 的時候,才表示以前的元素已經填滿,因此下標, 就編程了j+oldCap newTab[j + oldCap] = hiHead; } } } } } return newTab; } |
在多線程使用場景中,應該儘可能避免使用線程不安全的HashMap,而使用線程安全的ConcurrentHashMap。那麼爲何說HashMap是線程不安全的,下面舉例子說明在併發的多線程使用場景中使用HashMap可能形成死循環。代碼例子以下(便於理解,仍然使用JDK1.7的環境):
public class HashMapInfiniteLoop { private static HashMap<Integer,String> map = new HashMap<Integer,String>(2,0.75f); public static void main(String[] args) { map.put(5, "C"); new Thread("Thread1") { public void run() { map.put(7, "B"); System.out.println(map); }; }.start(); new Thread("Thread2") { public void run() { map.put(3, "A); System.out.println(map); }; }.start(); } } |
其中,map初始化爲一個長度爲2的數組,loadFactor=0.75,threshold=2*0.75=1,也就是說當put第二個key的時候,map就須要進行resize。
經過設置斷點讓線程1和線程2同時debug到transfer方法(3.3小節代碼塊)的首行。注意此時兩個線程已經成功添加數據。放開thread1的斷點至transfer方法的「Entry next = e.next;」 這一行;而後放開線程2的的斷點,讓線程2進行resize。結果以下圖。
注意,Thread1的 e 指向了key(3),而next指向了key(7),其在線程二rehash後,指向了線程二重組後的鏈表。
線程一被調度回來執行,先是執行 newTalbe[i] = e, 而後是e = next,致使了e指向了key(7),而下一次循環的next = e.next致使了next指向了key(3)。
e.next = newTable[i] 致使 key(3).next 指向了 key(7)。注意:此時的key(7).next 已經指向了key(3), 環形鏈表就這樣出現了。
因而,當咱們用線程一調用map.get(11)時,悲劇就出現了——Infinite Loop。
可是在JDK1.8之後這個問題已經不存在了,由於JDK1.8中的擴容已經不存在transfer方法了,而且擴容後不會致使鏈表倒置了,所以不存在鏈表死循環。可是並不能說明JDK1.8中HashMap就是線程安全的。而且,拋開版本HashMap中線程不安全的體現並不只僅在擴容這裏,下面咱們再來分析其餘線程不安全的部分。
1. 首先 size() 方法:
Map中的size字段
咱們看到並不適用volatile修飾的,也就是說在多線程狀況下size的修改並不對其餘線程可見。所以很明確,在併發put元素的時候HashMap中的size絕對是不可信的!
2.多線程put操做
JDK1.7中put操做
/** * 存入一個鍵值對,若是key重複,則更新value * @param key 鍵值名 * @param value 鍵值 * @return 若是存的是新key則返回null,若是覆蓋了舊鍵值對,則返回舊value */ public V put(K key, V value) { //若是數組爲空,則新建數組 if (table == EMPTY_TABLE) { inflateTable(threshold); } //若是key爲null,則把value放在table[0]中 if (key == null) return putForNullKey(value); //生成key所對應的hash值 int hash = hash(key); //根據hash值和數組的長度找到:該key所屬entry在table中的位置i int i = indexFor(hash, table.length); /** * 數組中每一項存的都是一個鏈表, * 先找到i位置,而後循環該位置上的每個entry, * 若是發現存在key與傳入key相等,則替換其value。而後結束側方法。 * 若是沒有找到相同的key,則繼續執行下一條指令,將此鍵值對存入鏈表頭 */ for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } //map操做次數加一 modCount++; //查看是否須要擴容,並將該鍵值對存入指定下標的鏈表頭中 addEntry(hash, key, value, i); //若是是新存入的鍵值對,則返回null return null; } |
考慮在多線程下put操做時,執行addEntry(hash,key, value, i),若是有產生哈希碰撞,
致使兩個線程獲得一樣的bucketIndex去存儲,就可能會出現覆蓋丟失的狀況:。同時存進去的位置,有一個先存的會給覆蓋掉。
JDK1.8中put操做
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; if ((p = tab[i = (n - 1) & hash]) == null) //若是該位置爲null,說明沒有哈希衝突,直接插入 --------------------(1) tab[i] = newNode(hash, key, value, null); else { ....省略後面的代碼... } |
若是有兩個線程A和B,都進行插入數據,恰好這兩條不一樣的數據通過哈希計算後獲得的哈希碼是同樣的,且該位置尚未其餘的數據。因此這兩個線程都會進入我在上面標記爲(1)的代碼中。假設一種狀況,線程A經過if判斷,該位置沒有哈希衝突,進入了if語句,尚未進行數據插入,這時候CPU就把資源讓給了線程B,線程A停在了if語句裏面,線程B判斷該位置沒有哈希衝突(線程A的數據還沒插入),也進入了if語句,線程B執行完後,輪到線程A執行,如今線程A直接在該位置插入而不用再判斷。這時候,你會發現線程A把線程B插入的數據給覆蓋了。發生了線程不安全狀況。原本在HashMap中,發生哈希衝突是能夠用鏈表法或者紅黑樹來解決的,可是在多線程中,可能就直接給覆蓋了。
發生在鏈表處插入數據發生線程不安全的狀況也類似。
如兩個線程都在遍歷到最後一個節點,都要在最後添加一個數據,那麼後面添加數據的線程就會把前面添加的數據給覆蓋住。
3.若是我在擴容時,在數據從舊數組複製到新數組過程當中,這時候某個線程插入一條數據,這時候是插入到新數組中,可是在數據複製過程當中,HashMap是沒有檢查新數組上的位置是否爲空,因此新插入的數據會被後面從舊數組中複製過來的數據覆蓋住。
4.JDK1.8中若是在(2)剛執行後,某個線程就馬上想刪除之前插入的某個元素,你會發現刪除不了,由於table指向了新數組,而這時候新數組尚未數據。
final Node<K,V>[] resize() { ..省略.. Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];//----------------------(1) table = newTab;//------------------------(2) ..省略.. } |
5.JDK1.7中transfer方法的線程安全問題不只僅是鏈表死循環,還有可能put非null元素後get出來的倒是null:
void transfer(Entry[] newTable) { Entry[] src = table; //src引用了舊的Entry數組 int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數組 Entry<K,V> e = src[j]; //取得舊Entry數組的每一個元素,將取到的元素存儲到變量e中 if (e != null) { src[j] = null;//釋放舊Entry數組的對象引用(for循環後,舊的Entry數組再也不引用任何對象) -------(1) do { Entry<K,V> next = e.next;// 將鏈表中的當前指向節點e的next節點,保存到next變量中 int i = indexFor(e.hash, newCapacity); //從新計算元素在HashMap的value數組中的位置 e.next = newTable[i]; //將新數組newTable[i]中存儲的值指向當前節點e的next節點 newTable[i] = e; //將當前節點e指向新數組的newTable[i]上,使e稱爲newTable[i]中保存鏈表的頭結點,這樣e節點就添加到了newTable[i]中 e = next; //將當前節點e原來的next節點,變爲當前處理節點e } while (e != null); } } } |
上面的代碼中,src爲舊數組,newTable爲新數組。(1)處的代碼將 src[j] = null;,把src[j]取值給e後,把那個位置就變成null,那麼同時有線程get那個舊錶src的時候,就有可能取值爲null了。
HashMap中,若是key通過hash算法得出的數組索引位置所有不相同,即Hash算法很是好,那樣的話,getKey方法的時間複雜度就是O(1),若是Hash算法技術的結果碰撞很是多,假如Hash算極其差,全部的Hash算法結果得出的索引位置同樣,那樣全部的鍵值對都集中到一個桶中,或者在一個鏈表中,或者在一個紅黑樹中,時間複雜度分別爲O(n)和O(lgn)。 鑑於JDK1.8作了多方面的優化,整體性能優於JDK1.7,下面咱們從兩個方面用例子證實這一點。
爲了便於測試,咱們先寫一個類Key,以下:
class Key implements Comparable<Key> { private final int value; Key(int value) { this.value = value; } @Override public int compareTo(Key o) { return Integer.compare(this.value, o.value); } @Override public boolean equals(Object o) { if (this == o) return true; if (o == null || getClass() != o.getClass()) return false; Key key = (Key) o; return value == key.value; } @Override public int hashCode() { return value; } } |
這個類複寫了equals方法,而且提供了至關好的hashCode函數,任何一個值的hashCode都不會相同,由於直接使用value當作hashcode。爲了不頻繁的GC,我將不變的Key實例緩存了起來,而不是一遍一遍的建立它們。代碼以下:
public class Keys { public static final int MAX_KEY = 10_000_000; private static final Key[] KEYS_CACHE = new Key[MAX_KEY]; static { for (int i = 0; i < MAX_KEY; ++i) { KEYS_CACHE[i] = new Key(i); } } public static Key of(int value) { return KEYS_CACHE[value]; } } |
如今開始咱們的試驗,測試須要作的僅僅是,建立不一樣size的HashMap(一、十、100、……10000000),屏蔽了擴容的狀況,代碼以下:
static void test(int mapSize) { HashMap<Key, Integer> map = new HashMap<Key,Integer>(mapSize); for (int i = 0; i < mapSize; ++i) { map.put(Keys.of(i), i); } long beginTime = System.nanoTime(); //獲取納秒 for (int i = 0; i < mapSize; i++) { map.get(Keys.of(i)); } long endTime = System.nanoTime(); System.out.println(endTime - beginTime); } public static void main(String[] args) { for(int i=10;i<= 1000 0000;i*= 10){ test(i); } } |
在測試中會查找不一樣的值,而後度量花費的時間,爲了計算getKey的平均時間,咱們遍歷全部的get方法,計算總的時間,除以key的數量,計算一個平均值,主要用來比較,絕對值可能會受不少環境因素的影響。結果以下:
經過觀測測試結果可知,JDK1.8的性能要高於JDK1.7 15%以上,在某些size的區域上,甚至高於100%。因爲Hash算法較均勻,JDK1.8引入的紅黑樹效果不明顯,下面咱們看看Hash不均勻的的狀況。
假設咱們又一個很是差的Key,它們全部的實例都返回相同的hashCode值。這是使用HashMap最壞的狀況。代碼修改以下:
class Key implements Comparable<Key> { //... @Override public int hashCode() { return 1; } } |
仍然執行main方法,得出的結果以下表所示:
從表中結果中可知,隨着size的變大,JDK1.7的花費時間是增加的趨勢,而JDK1.8是明顯的下降趨勢,而且呈現對數增加穩定。當一個鏈表太長的時候,HashMap會動態的將它替換成一個紅黑樹,這話的話會將時間複雜度從O(n)降爲O(logn)。hash算法均勻和不均勻所花費的時間明顯也不相同,這兩種狀況的相對比較,能夠說明一個好的hash算法的重要性。
測試環境:處理器爲2.2 GHz Intel Core i7,內存爲16 GB 1600 MHz DDR3,SSD硬盤,使用默認的JVM參數,運行在64位的OS X 10.10.1上。
(1) 擴容是一個特別耗性能的操做,因此當程序員在使用HashMap的時候,估算map的大小,初始化的時候給一個大體的數值,避免map進行頻繁的擴容。
(2) 負載因子是能夠修改的,也能夠大於1,可是建議不要輕易修改,除非狀況很是特殊。
(3) HashMap是線程不安全的,不要在併發的環境中同時操做HashMap,建議使用ConcurrentHashMap。
(4) JDK1.8引入紅黑樹大程度優化了HashMap的性能。
(5) 還沒升級JDK1.8的,如今開始升級吧。HashMap的性能提高僅僅是JDK1.8的冰山一角。