①DEFAULT_INITIAL_CAPACITY&MAXIMUM_CAPACITYhtml
Hash音譯爲「哈希」,直譯爲「散列」,是一種信息摘要算法,但他不是加密。散列函數(或散列算法,又稱哈希函數,英語:Hash Function)是一種從任何一種數據中建立小的數字「指紋」的方法。散列函數把消息或數據壓縮成摘要,使得數據量變小,將數據的格式固定下來。該函數將數據打亂混合,從新建立一個叫作散列值(hash values,hash codes,hash sums,或hashes)的指紋(維基百科)。
咱們平時經常使用的MD5,SSL等都屬於Hash算法,經過Key進行Hash的計算,就能夠獲取Key對應的HashCode。
以前咱們講了ArrayList和LinkedList的優缺點——數組的特色是:尋址容易,插入和刪除困難;而鏈表的特色是:尋址困難,插入和刪除容易。
若是咱們綜合二者的特色,就能夠獲得本篇咱們要講的內容——HashMap(直譯散列表,音譯哈希表)。咱們知道,java.util中的clloection集合類中, 最爲經常使用的兩種是List和Map類,咱們以前將的ArrayList和LinkedList都是List集合類旗下的,而HashMap則是屬於Map集合的陣營。爲何說HashMap集合了前面兩種數據結構的特色呢?HashMap最多見的實現方法是拉鍊法——即一系列鏈表爲數組元素組成的數組。如圖:java
從上圖咱們能夠看到,HashMap由鏈表+數組組成,他的底層結構是一個數組,而數組的元素是一個單向鏈表。圖中是一個長度爲16位的數組,每一個數組儲存的元素表明的是每個鏈表的頭結點。node
上面咱們說了有關Hash算法的事情,經過Key進行Hash的計算,就能夠獲取Key對應的HashCode。好的Hash算法能夠計算出幾乎出獨一無二的HashCode,若是出現了重複的hashCode,就稱做碰撞,就算是MD5這樣優秀的算法也會發生碰撞,即兩個不一樣的key也有可能生成相同的MD5。
正常狀況下,咱們經過hash算法,往HashMap的數組中插入元素。若是發生了碰撞事件,那麼意味這數組的一個位置要插入兩個或者多個元素,這個時候數組上面掛的鏈表起做用了,鏈表會將數組某個節點上多出的元素按照尾插法(jdk1.7及之前爲頭差法)的方式添加。算法
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable { ...... //默認初始容量爲16,這裏這個數組的容量必須爲2的n次冪。 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 //最大容量爲2的30次方 static final int MAXIMUM_CAPACITY = 1 << 30; //默認加載因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; //以Node<K,V>爲元素的數組,也就是上圖HashMap的縱向的長鏈數組,起長度必須爲2的n次冪 transient Node<K,V>[] table; //已經儲存的Node<key,value>的數量,包括數組中的和鏈表中的 transient int size; //擴容的臨界值,或者所能容納的key-value對的極限。當size>threshold的時候就會擴容 int threshold; //加載因子 final float loadFactor; ......
首先當咱們經過無參的構造函數new一個hashMap的時候,系統就會幫咱們指定你HashMap的默認大小爲DEFAULT_INITIAL_CAPACITY也就是24,固然咱們能夠刻本身制定初始容量的大小,只不過要注意必須是2n且小於MAXIMUM_CAPACITY(230)。bootstrap
LOAD_FACTOR(負載因子)和上面的CAPACITY(容量)的關係,簡單來講,Capacity就是數組的長度/大小,loadFactor是這個數組填滿程度的最大比比例。一樣的,咱們能夠根據有參的HashMap構造函數來指定初始負載容量的大小,若是不指定,默認的負載因子爲0.75。數組
size表示當前HashMap中已經儲存的Node<key,value>的數量,包括數組和鏈表中的的Node<key,value>。threshold表示擴容的臨界值,若是size大於這個值,則必需調用resize()方法進行擴容,具體的擴容過程咱們以後會講。
這裏先說一下threshold值是怎麼獲得的,在jdk1.7及之前,threshold = length * Load factor,其中length爲數組的長度,也就是說數組的長度成負載因子的數量。這裏須要說明一點,默認負載因子0.75是是對空間和時間(縱向橫向)效率的一個平衡選擇,建議你們不要修改。
而在jdk1.8中,這個值的計算算法獲得了進一步改進,成了這個:數據結構
/** * Returns a power of two size for the given target capacity. */ static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
cap是咱們初始傳遞的Capacity值(或者默認的24),看註釋咱們能夠知道,這麼一系列位移操做算法最後是爲了獲得一個power of two size的值。爲何jdk中一再要強調這個2n這個值呢?這個等會咱們再分析。app
最後來重點說說這個Node[] table,他是整個HashMap的組成子元素,是構成HashMap的一磚一瓦:函數
static class Node<K,V> implements Map.Entry<K,V> { final int hash; //每一個儲存元素key的哈希值 final K key; //key V value; //value Node<K,V> next; //鏈表下一個node Node(int hash, K key, V value, Node<K,V> next) { this.hash = hash; ...... } public final K getKey() { return key; } public final V getValue() { return value; } public final String toString() { return key + "=" + value; } public final int hashCode() { ...... } public final V setValue(V newValue) { ...... } public final boolean equals(Object o) { ....... } }
能夠看到,這個Node<K,V>[]是HashMap的一個內部類,他既是HashMap底層數組的組成元素,又是每一個單向鏈表的組成元素。它其中包含了數組元素所須要的key與value,以及鏈表所須要的指向下一個節點的引用域next。固然這個hash值是系統在建立Node時經過必定的算法計算出來的一個int值,以後咱們會講。優化
jdk1.8中,HashMap共有四種構造函數:
public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); } public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted } public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); }
首先看源碼:
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //tab[]爲數組,p是每一個桶 ① if ((tab = table) == null || (n = tab.length) == 0) //第一步,table爲空,則調用resize()函數建立一個 n = (tab = resize()).length; ② if ((p = tab[i = (n - 1) & hash]) == null) //第二步,計算元素所要儲存的位置index,並對null作出處理 //注意這裏,若是tab[i]==null,說明這個位置上沒有元素,這個時候就建立一個新的Node元素 tab[i] = newNode(hash, key, value, null); else { //else,不然,也就是,這個要添加的位置上面已經有元素了,也就是發生了碰撞。這個時候就要具體狀況分 //類討論:1.key值相同,直接覆蓋 2.鏈表已經超過了8位,變成了紅黑樹 3.鏈表是正常的鏈表 Node<K,V> e; K k; if (p.hash == hash && //若是節點key存在,則覆蓋原來位置的key ((k = p.key) == key || (key != null && key.equals(k)))) e = p; ③ else if (p instanceof TreeNode) //第三步,判斷該鏈是否爲紅黑樹 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); //鏈表長度大於8轉換爲紅黑樹 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } //若是節點key存在,則覆蓋原來位置的key,同時將原來位置的元素,沿着鏈表向後移一位 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) ④ resize(); //第四步:超過最大容量限制,擴容 afterNodeInsertion(evict); return null; }
上面代碼中加了一些註釋,但願讀者仔細分析這段代碼中的邏輯。能夠看到,咱們將put一個元素的過程分爲四步,下面咱們分步驟講解:
這裏的table就是咱們在第一大點「HashMap基本元素」中說的Node[] table;也就是HashMap的基本子節點。關於這個元素,這裏還須要多說一點,在他聲明的地方有一段註釋:
/** * The table, initialized on first use, and resized as * necessary. When allocated, length is always a power of two. * (We also tolerate length zero in some operations to allow * bootstrapping mechanics that are currently not needed.) */ transient Node<K,V>[] table;
其中明確提到:這個table數組在第一次使用時須要初始化。在JDK1.7中源碼的構造函數中,咱們發現:
public HashMap(int initialCapacity, float loadFactor) { ...... this.loadFactor = loadFactor; threshold = (int)(capacity * loadFactor); table = new Entry[capacity]; //注意這裏初始化了 init(); }
也就是說,在jdk1.7中,當HashMap建立的時候,table這個數組確實會初始化;可是到了jdk1.8中,咱們觀察上面四個構造函數,除了第四個構造函數調用了resize()外,其餘三個經常使用的構造函數都沒有與table初始化相關的跡象,而真正table初始化的地方是在咱們上面講的putVal()方法中,即首次向HashMap添加元素時,調用resize()建立並初始化了一個table數組。
這裏筆者的理解是,相似於「懶加載」,用的時候再初始化,這樣有利於節省資源~~同時,估計1.7和1.8的代碼不是一個工程師寫的吧,代碼優化以後註釋忘了改...關於resize()方法,咱們以後再講。
儲存位置即研究這個這個新添加的元素是經過何種規則添加到什麼位置的,咱們注意到這句源碼:p = tab[i = (n - 1) & hash]
能夠看到,index = (n - 1) & hash。n是新建立的table數組的長度:(tab = resize()).length;
,那麼hash是什麼呢?注意到這兩段代碼:
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) { ......
能夠看待,hash是由hash(key)這個方法計算所得:
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
這裏能夠看到,首先將獲得key對應的哈希值:h = key.hashCode()
,而後經過hashCode()的高16位異或低16位實現的:(h = k.hashCode()) ^ (h >>> 16)
咱們分佈來說解這個index產生的步驟:
①Object類的hashCode
返回對象的通過處理後的內存地址,因爲每一個對象的內存地址都不同,因此哈希碼也不同。這個是native方法,取決於JVM的內部設計,通常是某種C地址的偏移。
②String類的hashCode
根據String類包含的字符串的內容,根據一種特殊算法返回哈希碼,只要字符串的內容相同,返回的哈希碼也相同。
③Integer等包裝類
返回的哈希碼就是Integer對象裏所包含的那個整數的數值,例如Integer i1=new Integer(100),i1.hashCode的值就是100 。因而可知,2個同樣大小的Integer對象,返回的哈希碼也同樣。
④int,char這樣的基礎類
它們不須要hashCode,若是須要存儲時,將進行自動裝箱操做,計算方法包裝類。
在JDK1.8的實現中,優化了高位運算的算法,經過hashCode()的高16位異或低16位實現的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這麼作能夠在數組table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。
這個n咱們說過是table的長度,那麼n-1就是table數組元素應有的下標。這個方法很是巧妙,它經過hash & (table.length -1)來獲得該對象的保存位,而HashMap底層數組的長度老是2的n次方,這是HashMap在速度上的優化。當length老是2的n次方時,hash&(length-1) 運算等價於對length取餘,也就是hash % length,可是&比%具備更高的效率。
關於爲何要先高16位異或低16位再取餘運算,咱們這裏先看第三步:
咱們知道,n表明的是table的長度length,以前一再強調,表table的長度須要取2的整數次冪,就是爲了這裏等價這裏進行取餘運算時的方便——取餘運算轉化成位運算公式:a%(2^n) 等價於 a&(2^n-1),而&操做比%操做具備更高的效率。
當length=2n時,(length - 1)正好至關於一個"低位掩碼","與"操做的結果就是散列值的高位所有歸零,只保留低位,用來作數組下標訪問:
能夠看到,當咱們的length爲16的時候,哈希碼(字符串「abcabcabcabcabc」的key對應的哈希碼)對(16-1)與操做,對於多個key生成的hashCode,只要哈希碼的後4位爲0,不論不論高位怎麼變化,最終的結果均爲0。也就是說,若是支取後四位(低位)的話,這個時候產生"碰撞"的概率就很是大(固然&運算中產生碰撞的緣由不少,這裏只是舉個例子)。爲了解決低位與操做碰撞的問題,因而便有了第二步中高16位異或低16位的「擾動函數」。
右移16位,本身的高半區和低半區異或,就是爲了混合原始哈希碼的高位和低位,以此來加大低位隨機性。
能夠看到:
擾動函數優化前:1954974080 % 16 = 1954974080 & (16 - 1) = 0
擾動函數優化後:1955003654 % 16 = 1955003654 & (16 - 1) = 6
很顯然,減小了碰撞的概率。
else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //是紅黑樹 else { for (int binCount = 0; ; ++binCount) { //不是紅黑樹而是鏈表 if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); // if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } }
關因而紅黑樹的部分,不在咱們本節的討論範圍以內,咱們主要看else裏邊的內容:
for (int binCount = 0; ; ++binCount) {
表示循環遍歷鏈表,這個for循環當中實際上經歷瞭如下幾個步驟:
①e = p.next以及for語句以外後面的p = e;
其實是在向後循環遍歷鏈表。
開始的時候P爲每一個桶的頭元素,而後將P的引用域(原本指向的是下一個元素)指向空節點e,這個時候實際上就至關於將p的下一個元素賦值給了e,即e已經變成了p的下一個元素。
②此時咱們把這個複製的e單獨提出來,進行了兩個判斷:
第一個if:if ((e = p.next) == null)
若是e也就是p.next == null,那麼說明當前的這個P已是鏈表最後一個元素了。這個時候採起尾插法添加一個新的元素:p.next = newNode(hash, key, value, null);
,即直接將p的引用域指向這個新添加的元素。若是添加新元素以後發現鏈表的長度超過了TREEIFY_THRESHOLD - 1
也就是超過了8,那麼調用treeifyBin(tab, hash);
把這個鏈表轉換成紅黑樹接着玩。
第二個if:if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))
若是發現key值重複了,也就是要插入的key已經存在,那麼直接break,結束遍歷(不用再費勁去插入了)。
③而後又將e賦給p,這個時候的p已經向後移動了一位。重複上面的過程,直到循環完整個鏈表,或者break出來。
整個不是紅黑樹的for循環(或者else)中就作了這三件事。
if (++size > threshold) resize(); afterNodeInsertion(evict);
具體的擴容操做,咱們接下來具體再講
首先上源碼,咱們在下面的源碼中會加上詳細的註釋,但願讀者們一塊兒跟着走一遍:
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; //建立一個oldTab數組用於保存以前的數組 int oldCap = (oldTab == null) ? 0 : oldTab.length; //獲取原來數組的長度 int oldThr = threshold; //原來數組擴容的臨界值 int newCap, newThr = 0; if (oldCap > 0) { if (oldCap >= MAXIMUM_CAPACITY) { //若是原來的數組長度大於最大值(2^30) threshold = Integer.MAX_VALUE; //擴容臨界值提升到正無窮 return oldTab; //返回原來的數組,也就是系統已經管不了了,隨便你怎麼玩吧 } //else if((新數組newCap)長度乘2) < 最大值(2^30) && (原來的數組長度)>= 初始長度(2^4)) //這個else if 中實際上就是咋判斷新數組(此時剛建立還爲空)和老數組的長度合法性,同時交代了, //咱們擴容是以2^1爲單位擴容的。下面的newThr(新數組的擴容臨界值)同樣,在原有臨界值的基礎上擴2^1 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) newCap = oldThr; //新數組的初始容量設置爲老數組擴容的臨界值 else { // 不然 oldThr == 0,零初始閾值表示使用默認值 newCap = DEFAULT_INITIAL_CAPACITY; //新數組初始容量設置爲默認值 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); //計算默認容量下的閾值 } if (newThr == 0) { //若是newThr == 0,說明爲上面 else if (oldThr > 0) //的狀況(其餘兩種狀況都對newThr的值作了改變),此時newCap = oldThr; float ft = (float)newCap * loadFactor; //ft爲臨時變量,用於判斷閾值的合法性 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); //計算新的閾值 } threshold = newThr; //改變threshold值爲新的閾值 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; //改變table全局變量爲,擴容後的newTable if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { //遍歷數組,將老數組(或者原來的桶)遷移到新的數組(新的桶)中 Node<K,V> e; if ((e = oldTab[j]) != null) { //新建一個Node<K,V>類對象,用它來遍歷整個數組 oldTab[j] = null; if (e.next == null) //將e也就是oldTab[j]放入newTab中e.hash & (newCap - 1)的位置, newTab[e.hash & (newCap - 1)] = e; //這個咱們以前講過,是一個取模操做 else if (e instanceof TreeNode) //若是e已是一個紅黑樹的元素,這個咱們不展開講 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // 鏈表重排,這一段是最難理解的,也是ldk1.8作的一系列優化,咱們在下面詳細講解 Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
上面這段代碼中,前面一部分咱們作了詳細的註釋,從下面的for()循環開始,咱們須要單獨拉出來說一下,由於這一段是重點的數組遷移,也是比較難以理解的:
Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null;
首先命名了兩組Node<K,V>對象,loHead = null, loTail = null;
與hiHead = null, hiTail = null;
,這兩組對象是爲了針對(e.hash & oldCap) == 0
是否成立這兩種狀況,而做出不一樣的處理;結合後面的:
if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; }
能夠知道,若是(e.hash & oldCap) == 0,則 newTab[j] = loHead = e = oldTab[j],即索引位置沒變。反之 (e.hash & oldCap) != 0, newTab[j + oldCap] = hiHead = e = oldTab[j],也就是說,此時把原數組[j]位置上的桶移到了新數組[j+原數組長度]的位置上了。
這是個啥意思呢?咱們借用美團點評技術團隊Java 8系列之從新認識HashMap一文中的部分解釋(這篇文章講的確實很好,網上不少講解1.8中HashMap的博客都是抄的這篇):
咱們以前一直說的一個移位運算就是—— a % (2^n) 等價於 a & (2^n - 1),也便是位運算與取餘運算的轉化,且位運算比取餘運算具備更高的效率,這也是爲何HashMap中數組長度要求爲2^n的緣由。咱們複習一下,HanshMap中元素存入數組的下表運算爲index = hash & (n - 1) ,其中n爲數組長度爲2的整數次冪。
在上面的圖中,n表示一個長度爲16的數組,n-1就是15,換算成二進制位1111。這個時候有兩種不一樣的哈希碼來跟他進行與操做(對應位置都爲1結果爲1,不然爲0),這兩種哈希碼的低四位都是相同的,最大的不一樣是第五位,key1爲0,key2爲1;
這個時候咱們進行擴容操做,n由16變爲32,n-1=32,換算成二進制位11111,這個時候再和key1,key2進行與操做,咱們發現,因爲第5位的差別,獲得了兩種不一樣的結果:
能夠看到,得出的結果剛好符合上面咱們將的兩種狀況。這也就是1.8中擴容算法作出的改進,至於爲何這麼搞?借用剛那篇文章中的一句話——因爲(hashCode中)新增的1bit是0仍是1能夠認爲是隨機的,所以resize的過程,均勻的把以前的衝突的節點分散到新的bucket了。
這個時候有些同窗就有問題了,剛剛說了半天hash & (n - 1),源碼中明明是if ((e.hash & oldCap) == 0) {
,並無減1啊~~咱們能夠看看若是不減1的話,16就是10000,和key1(第5位爲0)相與結果爲0,而和key2(第5位上面爲1)就成了16了(!=0),也符合上面兩種狀況。擴容以後同理。
原文連接:https://www.jianshu.com/p/17177c12f849