HashMap在平常開發中基本是每天見的,並且都知道何時須要用HashMap,根據Key存取Value,可是存和取的時候那些操做倒是不多去研究。同時在面試中也是面試官們必問的。如下是基於JDK1.8
java
先看看HashMap的結構圖:node
// hashMap數組的初始容量 16 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 負載因子 0.75f; static final float DEFAULT_LOAD_FACTOR = 0.75f; // 樹形化閾值 8 static final int TREEIFY_THRESHOLD = 8; // 解除樹形化閾值 6 static final int UNTREEIFY_THRESHOLD = 6; // 樹形化的另外一條件 Map數組的長度閾值 64 static final int MIN_TREEIFY_CAPACITY = 64 // 這個就是hashMap的內部數組了,而Node則是鏈表節點對象。 transient Node<K,V>[] table; // 數組擴容閾值。 int threshold;
initialCapacity
數組的初始容量爲16。能夠在構造方法中指定。必須是2的冪次方。(16 → 32 → 64 ...)面試
loadFactor
加載因子 0.75f。 所謂的加載因子就是HashMap的容量達到0.75時的時候會試試擴容resize()
, (例:假設有一個 HashMap 的初始容量爲 16 ,那麼擴容的閥值就是 0.75 * 16 = 12 。也就是說,在你打算存入第 13 個值的時候,HashMap 會先執行擴容)。加載因子也能經過構造方法中指定,若是指定大於1,則數組不會擴容,犧牲了性能不過提高了內存。算法
TREEIFY_THRESHOLD
樹形化閾值。當鏈表的節點個數大於等於這個值時,會將鏈表轉化爲紅黑樹。數組
UNTREEIFY_THRESHOLD
解除樹形化閾值。當鏈表的節點個數小於等於這個值時,會將紅黑樹轉換成普通的鏈表。安全
MIN_TREEIFY_CAPACITY
樹形化閾值的第二條件。當數組的長度小於這個值時,就算樹形化閾達標,鏈表也不會轉化爲紅黑樹,而是優先擴容數組resize()
。多線程
threshold
數組擴容閾值。即:HashMap數組總容量 * 加載因子。當前容量大於或等於該值時會執行擴容**resize()
**。擴容的容量爲當前 HashMap 總容量的兩倍。好比,當前 HashMap 的總容量爲 16 ,那麼擴容以後爲 32 。app
// table 內部數組是節點類型 static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Node<K,V> next; //下一個節點 //省略... }
拉鍊法的散列表是經過鏈表解決碰撞問題的,因此HashMap的內部數組是節點類型。 hash
值是通過hash()
方法處理過的hashCode,也就是數組的索引 bucket
,爲了使hashCode分佈更加隨機。函數
java.util.HashMap<K, V>.Node<K, V> java.util.LinkedMap<K, V>.Entry<K, V> java.util.HashMap<K, V>.TreeNOde<K, V>
TreeNode是Node是子類,繼承關係以下:Node是單向鏈表節點,Entry是雙向鏈表節點,TreeNode是紅黑樹節點。TreeNode的代碼400多行都是寫的紅黑樹。這個有點難度..能夠自行去了解。性能
HashMap是基於拉鍊法實現的一個散列表,內部由數組和鏈表和紅黑樹實現。
數組的初始容量爲16,而容量是以2的次方擴充的,一是爲了提升性能使用足夠大的數組,二是爲了能使用位運算代替取模預算(聽說提高了5~8倍)。
數組是否須要擴充是經過負載因子判斷的,若是當前元素個數爲數組容量的0.75時,就會擴充數組。這個0.75就是默認的負載因子,可由構造傳入。咱們也能夠設置大於1的負載因子,這樣數組就不會擴充,犧牲性能,節省內存。
爲了解決碰撞,數組中的元素是單向鏈表類型。當鏈表長度到達一個閾值時(7或8),會將鏈表轉換成紅黑樹提升性能。而當鏈表長度縮小到另外一個閾值時(6),又會將紅黑樹轉換回單向鏈表提升性能,這裏是一個平衡點。
對於第三點補充說明,檢查鏈表長度轉換成紅黑樹以前,還會先檢測當前數組數組是否到達一個閾值(64),若是沒有到達這個容量,會放棄轉換,先去擴充數組。因此上面也說了鏈表長度的閾值是7或8,由於會有一次放棄轉換的操做。
// 默認數組初始容量爲16,負載因子爲0.75f public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted }
// 指定數組的初始容量 public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); }
// 指定數組的初始容量 和 負載因子 public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; // NaN:Not a Number。例如給-1開方就會獲得NaN。 if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; // 這個方法能夠將任意一個整數轉換成2的次方。 // 例如輸入10,則會返回16。 // 另外,有人可能疑惑,不是說threshold是 數組容量 * loadFactor獲得的嗎? // 是的,在第一次put操做,擴充數組時,會將這個threshold做爲數組容量,而後再從新計算這個值。 this.threshold = tableSizeFor(initialCapacity); }
在使用指定數組的初始容量時上面說過,數組容量必須是2的次方。因此就須要經過算法將咱們給定的數值轉換成2的次方。
// 這個方法能夠將任意一個整數轉換成2的次方。 static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
相關的位運算這裏不作講解。想了解的能夠本身去查閱資料。
HashMap採用hash算法來決定集合中元素的存儲位置,每當系統初始化HashMap時,會建立一個爲**capacity
的數組,這個數組裏面能夠存儲元素的位置被成爲桶(bucket)
, 每一個bucket
**都有其指定索引。能夠根據該索引快速訪問存儲的元素。
public V put(K key, V value) { // 傳入的key通過了 hash(key) 方法 return putVal(hash(key), key, value, false, true); } // 特殊處理的hashCode static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
在Java中每一個對象都會擁有一個**hashCode()
**方法,這個就是散列函數,經過這個方法會返回一個32位的整數,使用這麼大的值做爲哈希值實際上是爲了儘可能避免發生碰撞(相同),例如兩個不一樣對象的hashCode同樣的話那就是發生了碰撞。可是若是用這麼長的數字來當作索引確定是不行的,那須要數組有多大才行?因此咱們須要把這個hashCode縮小到規定數組的長度範圍內。
上面的代碼只是用hashCode的高16位與低16位進行異或運算。hash()
方法就是將hashCode進一步的混淆,增長其「隨機度」
,試
圖減小插入HashMap時的hash衝突
。
在putVal方法中,有一行這樣的代碼
if ((p = tab[i = (n - 1) & hash]) == null)
i = (n - 1) & hash
,n是數組長度,hash就是經過hash()方法進行高低位異或運算得出來的hash值。 這個表達式就是hash值的取模運算,上面已經說過當除數爲2的次方時,能夠用與運算提升性能。
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } // onlyIfAbsent:當存入鍵值對時,若是該key已存在,是否覆蓋它的value。false爲覆蓋,true爲不覆蓋 參考putIfAbsent()方法。 // evict:用於子類LinkedHashMap。 final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { HashMap.Node<K,V>[] tab; // tab:內部數組 HashMap.Node<K,V> p; // p:hash對應的索引位中的首節點 int n, i; // n:內部數組的長度 i:hash對應的索引位 // 首次put時,內部數組爲空,擴充數組。 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; // 計算數組索引,獲取該索引位置的首節點,若是爲null,添加一個新的節點 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { HashMap.Node<K,V> e; K k; // 若是首節點的key和要存入的key相同,那麼直接覆蓋value的值。 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; // 若是首節點是紅黑樹的,將鍵值對插添加到紅黑樹 else if (p instanceof HashMap.TreeNode) e = ((HashMap.TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); // 此時首節點爲鏈表,若是鏈表中存在該鍵值對,直接覆蓋value。 // 若是不存在,則在末端插入鍵值對。而後判斷鏈表是否大於等於7,嘗試轉換成紅黑樹。 // 注意此處使用「嘗試」,由於在treeifyBin方法中還會判斷當前數組容量是否到達64, // 不然會放棄次此轉換,優先擴充數組容量。 else { // 走到這裏,hash碰撞了。檢查鏈表中是否包含key,或將鍵值對添加到鏈表末尾 for (int binCount = 0; ; ++binCount) { // p.next == null,到達鏈表末尾,添加新節點,若是長度足夠,轉換成樹結構。 if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } // 檢查鏈表中是否已經包含key if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } // 覆蓋value的方法。 if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; // fail-fast機制 // 若是元素個數大於閾值,擴充數組。 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
細心看註釋部分,總結來講就是如下幾個步驟:
1.檢查數組是否爲空,執行resize()擴充; 2.經過hash值計算數組索引,獲取該索引位的首節點。 3.若是首節點爲null**(沒發生碰撞)
,直接添加節點到該索引位(bucket)
。 4.若是首節點不爲null(發生碰撞)
,那麼有3種狀況 ① key和首節點的key相同,覆蓋old value(保證key的惟一性)
**;不然執行②或③ ② 若是首節點是紅黑樹節點(TreeNode),將鍵值對添加到紅黑樹。 ③ 若是首節點是鏈表,將鍵值對添加到鏈表。添加以後會判斷鏈表長度是否到達TREEIFY_THRESHOLD - 1這個閾值,「嘗試」將鏈表轉換成紅黑樹。 5.最後判斷當前元素個數是否大於threshold,擴充數組。
// 把鏈表轉換爲紅黑色 final void treeifyBin(Node<K,V>[] tab, int hash) { int n, index; Node<K,V> e; // 若是當前數組容量過小(小於64),放棄轉換,擴充數組。 if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) resize(); } else if ((e = tab[index = (n - 1) & hash]) != null) { // 將鏈表轉成紅黑樹... } }
HashMap在jdk1.8以後引入了紅黑樹的概念,表示若桶中鏈表元素超過8時,會自動轉化成紅黑樹;若桶中元素小於等於6時,樹結構還原成鏈表形式。
紅黑樹的平均查找長度是log(n),長度爲8,查找長度爲log(8)=3,鏈表的平均查找長度爲n/2,當長度爲8時,平均查找長度爲8/2=4,這纔有轉換成樹的必要;鏈表長度若是是小於等於6,6/2=3,雖然速度也很快的,可是轉化爲樹結構和生成樹的時間並不會過短。
以6和8來做爲平衡點是由於,中間有個差值7能夠防止鏈表和樹之間頻繁的轉換。假設,若是設計成鏈表個數超過8則鏈表轉換成樹結構,鏈表個數小於8則樹結構轉換成鏈表,若是一個HashMap不停的插入、刪除元素,鏈表個數在8左右徘徊,就會頻繁的發生樹轉鏈表、鏈表轉樹,效率會很低。
歸納起來就是:鏈表:若是元素小於8個,查詢成本高,新增成本低,紅黑樹:若是元素大於8個,查詢成本低,新增成本高。
final HashMap.Node<K,V>[] resize() { HashMap.Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { // 若是數組已是最大長度,不進行擴充。 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 不然數組容量擴充一倍。(2的N次方) else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } // 若是數組還沒建立,可是已經指定了threshold(這種狀況是帶參構造建立的對象),threshold的值爲數組長度 // 在 "構造函數" 那塊內容進行過說明。 else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; // 這種狀況是經過無參構造建立的對象 else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 多是上面newThr = oldThr << 1時,最高位被移除了,變爲0。 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; // 到了這裏,新的數組長度已經被計算出來,建立一個新的數組。 @SuppressWarnings({"rawtypes","unchecked"}) HashMap.Node<K,V>[] newTab = (HashMap.Node<K,V>[])new HashMap.Node[newCap]; table = newTab; // 下面代碼是將原來數組的元素轉移到新數組中。問題在於,數組長度發生變化。 // 那麼經過hash%數組長度計算的索引也將和原來的不一樣。 // jdk 1.7中是經過從新計算每一個元素的索引,從新存入新的數組,稱爲rehash操做。 // 這也是hashMap無序性的緣由之一。而如今jdk 1.8對此作了優化,很是的巧妙。 if (oldTab != null) { // 遍歷原數組 for (int j = 0; j < oldCap; ++j) { // 取出首節點 HashMap.Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; // 若是鏈表只有一個節點,那麼直接從新計算索引存入新數組。 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; // 若是該節點是紅黑樹,執行split方法,和鏈表相似的處理。 else if (e instanceof HashMap.TreeNode) ((HashMap.TreeNode<K,V>)e).split(this, newTab, j, oldCap); // 此時節點是鏈表 else { // preserve order // loHead,loTail爲原鏈表的節點,索引不變。 HashMap.Node<K,V> loHead = null, loTail = null; // hiHeadm, hiTail爲新鏈表節點,原索引 + 原數組長度。 HashMap.Node<K,V> hiHead = null, hiTail = null; HashMap.Node<K,V> next; // 遍歷鏈表 do { next = e.next; // 新增bit爲0的節點,存入原鏈表。 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } // 新增bit爲1的節點,存入新鏈表。 else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 原鏈表存回原索引位 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } // 新鏈表存到:原索引位 + 原數組長度 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
擴充數組不僅僅只是讓數組長度翻倍,將原數組中的元素直接存入新數組中這麼簡單。
由於元素的索引是經過hash&(n - 1)獲得的,那麼數組的長度由n變爲2n,從新計算的索引就可能和原來的不同了。
在jdk1.7中,是經過遍歷每個元素,每個節點,從新計算他們的索引值,存入新的數組中,稱爲rehash操做。
而java1.8對此進行了一些優化,沒有了rehash操做。由於當數組長度是經過2的次方擴充的,那麼會發現如下規律:
元素的位置要麼是在原位置,要麼是在原位置再移動2次冪的位置。所以,在擴充HashMap的時候,不須要像JDK1.7的實現那樣從新計算hash,只須要看看原來的hash值新增的那個bit是1仍是0就行了,是0的話索引沒變,是1的話索引變成「原索引+oldCap」。
先計算新數組的長度和新的閾值(threshold),而後將舊數組的內容遷移到新數組中,和1.7相比不須要執行rehash操做。由於以2次冪擴展的數組能夠簡單經過新增的bit判斷索引位。
public V get(Object key) { Node<K,V> e; // 也會獲取節點時也調用了hash()方法 return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node<K,V> getNode(int hash, Object key) { // tab:內部數組 first: 索引位首節點 n: 數組長度 k: 索引位首節點的key Node<K,V>[] tab; Node<K,V> first, e; int n; K k; // 數組不爲null 數組長度大於0 索引位首節點不爲null if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { // 若是索引位首節點的hash==key的hash 或者 key和索引位首節點的k相同 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) // 返回索引位首節點(值對象) return first; if ((e = first.next) != null) { // 若是是紅黑色則到紅黑樹中查找 if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); do { // 發送碰撞 key.equals(k) if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
總結起來就是如下步驟 1.檢查數組是否爲null 和 索引位首節點**(bucket的第一個節點)
是否爲null 2.若是索引節點的hash==key的hash 或者 key和索引節點的k相同則直接返回(bucket的第一個節點)
** 3.若是是紅黑色則到紅黑樹查找 4.若是有衝突,則經過key.equals(k)查找 5.都沒找到就返回null
呃..
Map m = Collections.synchronizeMap(hashMap);
查看第序號3的總結。
put() 查看序號4.3的總結。 get() 查看序號4.5的總結。
兩個對象的hashCode相同因此它們的bucket位置相同,會發生hash碰撞。HashMap使用鏈表存儲對象,這個Entry會存儲在鏈表中,存儲時會檢查鏈表中是否包含key (key != null && key.equals(k)
,或將鍵值對添加到鏈表尾部。若是鏈表長度大於或等於8,鏈表轉換紅黑樹 ...
兩個對象的hashCode相同因此它們的bucket位置相同,找到bucket位置以後,會調用keys.equals()方法去找到鏈表中正確的節點 (key != null && key.equals(k)
。
使用final修飾的對象、或不可變的對象做爲鍵,使用(Integer、String)(是不可變、final的,並且已經重寫了equals和hashCode方法)這樣的wrapper類做爲鍵是很是好的,(咱們可使用自定義的對象做爲鍵嗎?答:固然能夠,只要它遵照了equals和hashCode方法定義規則,而且當對象插入到Map中以後將不會再改變。)
會調用**resize()
**進行數組擴容。
當多線程的狀況下,可能產生條件競爭。
由於若是兩個線程都發現HashMap須要從新調整大小了,它們會同時試着調整大小。在調整大小的過程當中,存儲在鏈表中的元素的次序會反過來,由於移動到新的bucket位置的時候,HashMap並不會將元素放在鏈表的尾部,而是放在頭部,這是爲了不尾部遍歷(tail traversing)。若是條件競爭發生了,那麼就死循環了。這個時候,你能夠質問面試官,爲何這麼奇怪,要在多線程的環境下使用HashMap呢?:)
因爲HashMap的容量是有限的,若是HashMap中的數組的容量很小,假如只有2個,那麼若是要放進10個keys的話,碰撞就會很是頻繁,此時一個O(1)的查找算法,就變成了鏈表遍歷,性能變成了O(n),這是Hash表的缺陷。
爲了解決這個問題,HashMap設計了一個閾值,其值爲容量的0.75,當HashMap所用容量超過了閾值後,就會自動擴充其容量。
在多線程的狀況下,當從新調整HashMap大小的時候,就會存在條件競爭,由於若是兩個線程都發現HashMap須要從新調整大小了,它們會同時試着調整大小。在調整大小的過程當中,存儲在鏈表中的元素的次序會反過來,由於移動到新的bucket位置的時候,HashMap並不會將元素放在鏈表的尾部,而是放在頭部,這是爲了不尾部遍歷。若是條件競爭發生了,那麼就會產生死循環了。 (又繞回了上一個問題 :)
負載因子。
哈希值;理想狀況是均勻的散列到各個桶。 通常HashMap使用String類型做爲key,而String類重寫了hashCode函數。
必須重寫hashCode和equals方法
若是key爲null會放在第一個bucket(即下標0)位置, 並且是在鏈表最前面(即第一個位置)