HashMap是咱們在編程中遇到極其頻繁、很是重要的一個集合類,若是能對HashMap作進一步的性能優化是很是有價值的而JDK 1.8作到了,因此很是有必要學習HashMap的重點源碼,瞭解大師的手法。算法
那爲何不將鏈表所有換成二叉樹呢?這裏主要有兩個方面。編程
第一個是鏈表的結構比紅黑樹簡單,構造紅黑樹要比構造鏈表複雜,因此在鏈表的節點很少的狀況下,從總體的性能看來, 數組+鏈表+紅黑樹的結構不必定比數組+鏈表的結構性能高。數組
第二個是HashMap頻繁的resize(擴容),擴容的時候須要從新計算節點的索引位置,也就是會將紅黑樹進行拆分和重組其實 這是很複雜的,這裏涉及到紅黑樹的着色和旋轉,有興趣的能夠看看紅黑樹的原理,這又是一個比鏈表結構耗時的操做,因此爲鏈表樹化設置一個閥值是很是有必要的。安全
我建議你們在讀源碼時能夠先看看類註釋,每每類註釋會給咱們一些重要的信息,這裏LZ給你們總結一下。性能優化
(1)容許NULL值,NULL鍵bash
(2)不要輕易改變負載因子,負載因子太高會致使鏈表過長,查找鍵值對時間複雜度就會增高,負載因子太低會致使hash桶的 數量過多,空間複雜度會增高數據結構
(3)Hash表每次會擴容長度爲之前的2倍多線程
(4)HashMap是多線程不安全的,我在JDK1.7進行多線程put操做,以後遍歷,直接死循環,CPU飆到100%,在JDK 1.8中進行多線程操做會出現節點和value值丟失,爲何JDK1.7與JDK1.8多線程操做會出現很大不一樣,是由於JDK 1.8的做者對resize方法進行了優化不會產生鏈表閉環。這也是本章的重點之一,具體的細節你們能夠去查閱資料。這裏我就不解釋太多了jvm
(5)儘可能設置HashMap的初始容量,尤爲在數據量大的時候,防止屢次resize函數
//默認hash桶初始長度16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//hash表最大容量2的30次冪
static final int MAXIMUM_CAPACITY = 1 << 30;
//默認負載因子 0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//鏈表的數量大於等於8個而且桶的數量大於等於64時鏈表樹化
static final int TREEIFY_THRESHOLD = 8;
//hash表某個節點鏈表的數量小於等於6時樹拆分
static final int UNTREEIFY_THRESHOLD = 6;
//樹化時最小桶的數量
static final int MIN_TREEIFY_CAPACITY = 64;
複製代碼
//hash桶
transient Node<K,V>[] table;
//鍵值對的數量
transient int size;
//HashMap結構修改的次數
transient int modCount;
//擴容的閥值,當鍵值對的數量超過這個閥值會產生擴容
int threshold;
//負載因子
final float loadFactor;
複製代碼
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
this.loadFactor = loadFactor;
//下面介紹一下這行代碼的做用
this.threshold = tableSizeFor(initialCapacity);
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
複製代碼
HashMap有4個構造函數。
hash桶沒有在構造函數中初始化,而是在第一次存儲鍵值對的時候進行初始化。 這裏重點看下 tableSizeFor(initialCapacity)方法,這個方法的做用是,將你傳入的initialCapacity作計算,返回一個大於等於initialCapacity 最小的2的冪次方。
因此這個操做保證不管你傳入的初始化Hash桶長度參數是多少,最後hash表初始化的長度都是2的冪次方。好比你輸入的是6,計算出來結果就是8。
下面貼出源碼。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
複製代碼
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//當table爲空時,這裏初始化table,不是經過構造函數初始化,而是在插入時經過擴容初始化,有效防止了初始化HashMap沒有數據插入形成空間浪費可能形成內存泄露的狀況
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//存放新鍵值對
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//舊鍵值對的覆蓋
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//在紅黑樹中查找舊鍵值對更新
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//將新鍵值對放在鏈表的最後
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//當鏈表的長度大於等於樹化閥值,而且hash桶的長度大於等於MIN_TREEIFY_CAPACITY,鏈表轉化爲紅黑樹
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//鏈表中包含鍵值對
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//map中含有舊key,返回舊值
if (e != null) {
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
//map調整次數加1
++modCount;
//鍵值對的數量達到閾值須要擴容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
複製代碼
HashMap插入跟咱們平時使用時的感受差很少,下面總結一下。
(1)插入的鍵值對是新鍵值對,若是hash表沒有初始化會進行初始化,不然將鍵值對插入鏈表尾部,可能須要鏈表樹化和 擴容
(2)插入的鍵值對中的key已經存在,更新鍵值對在put的方法裏咱們注意看下hash(key)方法,這是計算鍵值對hash值的方法,下面給出源碼
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
複製代碼
hashCode()是一個int類型的本地方法,也就將key的hashCode無符號右移16位而後與hashCode異或從而獲得hash值在putVal方法中(n - 1)& hash計算獲得桶的索引位置 ,那麼如今有兩個疑問,爲何要計算hash值?爲何不用 hash % n?
爲何要計算hash值,而不用hashCode,用爲一般n是很小的,而hashCode是32位,若是(n - 1)& hashCode那麼當n大於2的16次方加1,也就是65537後(n - 1)的高位數據才能與hashCode的高位數據相與,當n很小是隻能使用上hashCode低 16位的數據,這會產生一個問題,既鍵值對在hash桶中分佈不均勻,致使鏈表過長,而把hashCode>>>16無符號右移16位讓 高16位間接的與(n - 1)參加計算,從而讓鍵值對分佈均勻。下降hash碰撞。
爲何使用(n - 1)& hash 而不使用hash% n呢?其實這兩種結果是等價的,可是&的效率比%高,緣由由於&運算是二 進制直接運算,而計算機天生就認得二進制。下面畫圖說明一下
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//若是舊hash桶不爲空
if (oldCap > 0) {
//超過hash桶的最大長度,將閥值設爲最大值
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//新的hash桶的長度2被擴容沒有超過最大長度,將新容量閥值擴容爲之前的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
//若是hash表閾值已經初始化過
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//若是舊hash桶,而且hash桶容量閾值沒有初始化,那麼須要初始化新的hash桶的容量和新容量閥值
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//新的局部變量閥值賦值
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
//爲當前容量閥值賦值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
//初始化hash桶
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//若是舊的hash桶不爲空,須要將舊的hash表裏的鍵值對從新映射到新的hash桶中
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
//只有一個節點,經過索引位置直接映射
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//若是是紅黑樹,須要進行樹拆分而後映射
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else {
//若是是多個節點的鏈表,將原鏈表拆分爲兩個鏈表,兩個鏈表的索引位置,一個爲原索引,一個爲原索引加上舊Hash桶長度的偏移量
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
//鏈表1
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
//鏈表2
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//鏈表1存於原索引
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//鏈表2存於原索引加上原hash桶長度的偏移量
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
複製代碼
那麼何時回產生擴容呢?
(1)初始化HashMap時,第一次進行put操做
(2)當鍵值對的個數大於threshold閥值時產生擴容,threshold=size*loadFactor
上面就是HashMap擴容的源代碼,我已經加上了註釋,相信你們都能看懂了。總結一下,HaspMap擴容就是就是先計算 新的hash表容量和新的容量閥值,而後初始化一個新的hash表,將舊的鍵值對從新映射在新的hash表裏。這裏實現的細節固然 沒有我說的那麼簡單,若是在舊的hash表裏涉及到紅黑樹,那麼在映射到新的hash表中還涉及到紅黑樹的拆分。
在擴容的源代碼中做者有一個使用很巧妙的地方,是鍵值對分佈更均勻,不知道讀者是否有看出來。在遍歷原hash桶時的 一個鏈表時,由於擴容後長度爲原hash表的2倍,假設把擴容後的hash表分爲兩半,分爲低位和高位,若是能把原鏈表的鍵值對, 一半放在低位,一半放在高位,這樣的索引效率是最高的。那看看源碼裏是怎樣寫的。大師經過e.hash & oldCap == 0來判斷, 這和e.hash & (oldCap - 1) 有什麼區別呢。下面我經過畫圖來解釋一下。
由於n是2的整次冪,二進制表示除了最高位爲1外,其餘低位全爲0,那麼e.hash & oldCap 是否等於0,取決於n對應最高位 相對於e.hash那一位是0仍是1,好比說n = 16,二進制爲10000,第5位爲1,e.hash & oldCap 是否等於0就取決於e.hash第5 位是0仍是1,這就至關於有50%的機率放在新hash表低位,50%的機率放在新hash表高位。你們應該明白了e.hash & oldCap == 0的好處與做用了吧。其實,到這裏基本上HashMap的核心內容都講完了,相信你們對HashMap的源碼有必定了解了。在源碼中還有鍵值對的查詢和刪除都比較簡單,這裏就不在過多贅述了,對於紅黑樹的構造、旋轉、着色,我以爲你們有興趣能夠了解一下,畢竟咱們不 是HashMap的開發者,不用瞭解過多的細節,鑽牆角。知道大體的原理便可。
原本到這裏就要結束了,可是LZ仍是想跟你們聊一下HashMap總的clear()方法,下面貼出源碼。
public void clear() {
Node<K,V>[] tab;
modCount++;
if ((tab = table) != null && size > 0) {
size = 0;
for (int i = 0; i < tab.length; ++i)
tab[i] = null;
}
}
複製代碼
HashMap其實這段代碼特別簡單,爲何貼出來呢,是由於我在看過別的博客裏產生過疑問,究竟是clear好仍是新建一 個HashMap好。我認爲clear()比新建一個HashMap好。下面從空間複雜度和時間複雜度來解釋一下。
從時間角度來看,這個循環是很是簡單無複雜邏輯,並不十分耗資源。而新建一個HashMap,首先他在在堆內存中年輕代中查看是否有足夠空間可以存儲,若是可以存儲,那麼建立順利完成,但若是HashMap很是大,年輕代很難有足夠的空間存儲,若是老年代中有足夠空間存儲這個HashMap,那麼jvm會將HashMap直接存儲在老年代中,若是老年代中空間不夠,這時候會觸發一次minor gc,會產生小規模的gc停頓,若是發生minor gc以後仍不能存儲HashMap,那麼會發生整個堆的gc,也就是 full gc,這個gc停頓是很恐怖的。實際上的gc順序就是這樣的,而且可能發生屢次minor gc和full gc,若是發現年輕代和老年代 均不能存儲HashMap,那麼就會觸發OOM,而clear()是確定不會觸發OOM的,因此數據裏特別大的狀況下,千萬不要建立一 個新的HashMap代替clear()方法。
從空間角度看,原HashMap雖然不用,若是數據未被清空,是不可能被jvm回收的,由於HashMap是強引用類型的,從而形成內存泄漏。因此綜上所述我 是不建議新建一個HashMap代替clear()的,而且不少源碼中clear()方法很經常使用,這就是最好的證實。
(1)HashMap容許NULL值,NULL鍵
(2)不要輕易改變負載因子,負載因子太高會致使鏈表過長,查找鍵值對時間複雜度就會增高,負載因子太低會致使hash桶的數量過多,空間複雜度會增高
(3)Hash表每次會擴容長度爲之前的2倍
(4)HashMap是多線程不安全的,我在JDK 1.7進行多線程put操做,以後遍歷,直接死循環,CPU飆到100%,在JDK 1.8中 進行多線程操做會出現節點和value值丟失,爲何JDK1.7與JDK1.8多線程操做會出現很大不一樣,是由於JDK 1.8的做者對resize 方法進行了優化不會產生鏈表閉環。這也是本章的重點之一,具體的細節你們能夠去查閱資料。這裏我就不解釋太多了
(5)儘可能設置HashMap的初始容量,尤爲在數據量大的時候,防止屢次resize
(6)HashMap在JDK 1.8在作了很好性能的提高,我看到過在JDK1.7和JDK1.8get操做性能對比JDK1.8是要優於JDK 1.7的, 你們感興趣的能夠本身作個測試,因此尚未升級到JDK1.8的小夥伴趕忙的吧。
總結就把類註釋的給搬過來了,其實在本篇文章中有一個知識點沒有詳細分析,就是HashMap在多線程不安全的緣由,尤爲擴 容在JDK 1.7 會產生鏈表閉環,由於要畫不少圖,我還沒找到合適的工具,後期補充吧。