(1) 從源碼可知,HashMap類中有一個很是重要的字段,就是 Node[] table,即哈希桶數組,明顯它是一個Node的數組。咱們先來看看Node是什麼。html
static class Node implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node next;//指向鏈表的下一個node
Node(int hash, K key, V value, Node next) { ... }
public final K getKey(){ ... }
public final V getValue() { ... }
public final String toString() { ... }
public final int hashCode() { ... }
public final V setValue(V newValue) { ... }
public final boolean equals(Object o) { ... }
}複製代碼
(2) HashMap就是使用哈希表來存儲的。哈希表爲解決衝突,能夠採用開放地址法和鏈地址法等來解決問題,Java中HashMap採用了鏈地址法。java
鏈地址法,簡單來講,就是數組加鏈表的結合。在每一個數組元素上都有一個鏈表結構,當數據被Hash後,獲得數組下標,把數據放在對應下標元素的鏈表上(具體內容下文會說到)。node
在理解Hash和擴容流程以前,咱們得先了解下HashMap的幾個字段。從HashMap的默認構造函數源碼可知,構造函數就是對下面幾個字段進行初始化,源碼以下:程序員
int threshold; // 所能容納的key-value對極限
final float loadFactor; // 負載因子
int modCount;
int size;複製代碼
size這個字段其實很好理解,就是HashMap中實際存在的鍵值對數量。注意和table的長度length、容納最大鍵值對數量threshold的區別。算法
modCount字段主要用來記錄HashMap內部結構發生變化的次數,主要用於迭代的快速失敗。強調一點,內部結構發生變化指的是結構發生變化,例如put新鍵值對,可是某個key對應的value值被覆蓋不屬於結構變化。數組
這裏存在一個問題,即便負載因子和Hash算法設計的再合理,也免不了會出現拉鍊過長的狀況,一旦出現拉鍊過長,則會嚴重影響HashMap的性能。因而,在JDK1.8版本中,對數據結構作了進一步的優化,引入了紅黑樹。而當鏈表長度太長(默認超過8)時,鏈表就轉換爲紅黑樹,利用紅黑樹快速增刪改查的特色提升HashMap的性能,其中會用到紅黑樹的插入、刪除、查找等算法。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}複製代碼
方法一:
static final int hash(Object key) { //jdk1.8 & jdk1.7
int h;
// h = key.hashCode() 爲第一步 取hashCode值
// h ^ (h >>> 16) 爲第二步 高位參與運算
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
方法二:
static int indexFor(int h, int length) {
//jdk1.7的源碼,jdk1.8沒有這個方法,原理是同樣的只不過放到其餘方法中去,例如put()
return h & (length-1); //第三步 取模運算
}複製代碼
對於任意給定的對象,只要它的hashCode()返回值相同,那麼程序調用方法一所計算獲得的Hash碼值老是相同的。咱們首先想到的就是把hash值對數組長度取模運算,這樣一來,元素的分佈相對來講是比較均勻的。可是,模運算的消耗仍是比較大的,在HashMap中是這樣作的:調用方法二來計算該對象應該保存在table數組的哪一個索引處。安全
這個方法很是巧妙,它經過h & (table.length -1)
來獲得該對象的保存位,而HashMap底層數組的長度老是2的n次方,這是HashMap在速度上的優化。當length老是2的n次方時,h& (length-1)
運算等價於對length取模,也就是h%length
,可是&比%具備更高的效率。bash
x : 00010000
x-1 : 00001111
複製代碼
y : 10110010
x-1 : 00001111
y&(x-1) : 00000010複製代碼
y : 10110010
x : 00010000
y%x : 00000010複製代碼
public V put(K key, V value) {
// 對key的hashCode()作hash
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 步驟1:tab爲空則建立
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 步驟2:計算index,並對null作處理
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 步驟3:節點key存在,直接覆蓋value
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 步驟4:判斷該鏈爲紅黑樹
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 步驟5:該鏈爲鏈表
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key,value,null);
//鏈表長度大於8轉換爲紅黑樹進行處理
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// key已經存在直接覆蓋value
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 步驟6:超過最大容量 就擴容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}複製代碼
private V putForNullKey(V value) {
for (Entry<K,V> e = table[0]; e != null; e = e.next) {
if (e.key == null) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
addEntry(0, null, value, 0);
return null;
}複製代碼
void addEntry(int hash, K key, V value, int bucketIndex) {
if ((size >= threshold) && (null != table[bucketIndex])) {
resize(2 * table.length);
hash = (null != key) ? hash(key) : 0;
bucketIndex = indexFor(hash, table.length);
}
createEntry(hash, key, value, bucketIndex);
}
void createEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex];
// 頭插法,鏈表頭部指向新的鍵值對
table[bucketIndex] = new Entry<>(hash, key, value, e);
size++;
}
Entry(int h, K k, V v, Entry<K,V> n) {
value = v;
next = n;
key = k;
hash = h;
}
複製代碼
和擴容相關的參數主要有:capacity、size、threshold 和 load_factor。數據結構
參數
|
含義
|
capacity
|
table 的容量大小,默認爲 16。須要注意的是 capacity 必須保證爲 2 的 n 次方。
|
size
|
table 的實際使用量。
|
threshold
|
size 的臨界值,size 必須小於 threshold,若是大於等於,就必須進行擴容操做。
|
loadFactor
|
裝載因子,table 可以使用的比例,threshold = capacity * loadFactor。
|
static final int DEFAULT_INITIAL_CAPACITY = 16;
static final int MAXIMUM_CAPACITY = 1 << 30;
static final float DEFAULT_LOAD_FACTOR = 0.75f;
transient Entry[] table;
transient int size;
int threshold;
final float loadFactor;
transient int modCount;複製代碼
void addEntry(int hash, K key, V value, int bucketIndex) {
Entry<K,V> e = table[bucketIndex];
table[bucketIndex] = new Entry<>(hash, key, value, e);
if (size++ >= threshold)
resize(2 * table.length);
}複製代碼
咱們分析下resize的源碼,這裏使用的是JDK1.7的代碼,好理解一些,本質上區別不大。多線程
void resize(int newCapacity) { //傳入新的容量
Entry[] oldTable = table; //引用擴容前的Entry數組
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的數組大小若是已經達到最大(2^30)了
threshold = Integer.MAX_VALUE; //修改閾值爲int的最大值(2^31-1),這樣之後就不會擴容了
return;
}
Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry數組
transfer(newTable); //將數據轉移到新的Entry數組裏
table = newTable; //HashMap的table屬性引用新的Entry數組
threshold = (int)(newCapacity * loadFactor);//修改閾值
}
複製代碼
void transfer(Entry[] newTable) {
Entry[] src = table; //src引用了舊的Entry數組
int newCapacity = newTable.length;
for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數組
Entry e = src[j]; //取得舊Entry數組的每一個元素
if (e != null) {
//釋放舊Entry數組的對象引用(for循環後,舊的Entry數組再也不引用任何對象)
src[j] = null;
do {
Entry next = e.next;
//!!從新計算每一個元素在數組中的位置
int i = indexFor(e.hash, newCapacity);
e.next = newTable[i]; //標記[1]
newTable[i] = e; //將元素放在數組上
e = next; //訪問下一個Entry鏈上的元素
} while (e != null);
}
}
} 複製代碼
其實上面的數組擴容、從新計算下標值並將舊數據插入到新數組的過程並不難,有意思的一點是JDK1.8在這裏對擴容後的元素移動操做作了優化,具體過程以下。
通過觀測能夠發現,咱們使用的是2次冪的擴展(指長度擴爲原來2倍),因此,元素的位置要麼是在原位置,要麼是在原位置再移動2次冪的位置。
看下圖能夠明白這句話的意思,n爲table的長度,圖(a)表示擴容前的key1和key2兩種key肯定索引位置的示例,圖(b)表示擴容後key1和key2兩種key肯定索引位置的示例,其中hash1是key1對應的哈希與高位運算結果。
具體細節你們不妨能夠去看看JDK1.8的源碼中resize是怎麼寫的,這個思路的確十分巧妙。
public class HashMapInfiniteLoop {
private static HashMap map = new HashMap(2,0.75f);
public static void main(String[] args) {
map.put(5, "C");
new Thread("Thread1") {
public void run() {
map.put(7, "B");
System.out.println(map);
};
}.start();
new Thread("Thread2") {
public void run() {
map.put(3, "A);
System.out.println(map);
};
}.start();
}
} 複製代碼
線程一被調度回來執行,先是執行 newTalbe[i] = e, 而後是e = next,致使了e指向了key(7),而下一次循環的next = e.next致使了next指向了key(3)。
閱讀源碼是一件十分耗費精力的事情,但從中你能夠領悟到JDK做者的巧妙思路,在源碼層面去理解爲何HashMap是線程不安全的,HashMap的擴容機制等等,而不是僅僅停留在會用HashMap這個容器的表面理解上。