HashMap使用鍵值對存儲,只需傳入相應的鍵-值便可存儲。看下面的例子:html
HashMap<String, Integer> map = new HashMap<String, Integer>(); map.put("key1", 1); map.put("key2", 2); map.put("key3", 3); for(Entry<String, Integer> entry : map.entrySet()) { System.out.println(entry.getKey() + ": " + entry.getValue()); } 運行結果是: key1:1 key2:2 key3:3
讀取對應鍵的值:java
map.get("key3");
看到這裏你必定想知道HashMap存儲數據後的結構是怎麼樣的。node
HashMap綜合了數組和鏈表的優缺點,實現了本身的存儲方式。那麼先看一下數組和鏈表的存儲方式:android
1.數組存儲區間是連續的,佔用內存嚴重,故空間複雜的很大。 2.數組的特色是:尋址容易,插入和刪除困難。git
1.鏈表存儲區間離散,佔用內存比較寬鬆,故空間複雜度很小,但時間複雜度很大,達O(N)。 2.鏈表的特色是:尋址困難,插入和刪除容易。github
HashMap爲了能作到尋址容易,插入、刪除也容易使用了以下的結構。 從結構實現來說,HashMap是數組+鏈表+紅黑樹(JDK1.8增長了紅黑樹部分)實現的。算法
HashMap存儲數據的工做流程就是:數組
例如存儲:map.put("key1", 1);
分析:安全
1.將「key1」這個key用hashCode()方法獲得其hashCode 值,而後再經過Hash算法的後兩步運算(高位運算和取模運算,下文有介紹)來定位該鍵值對的存儲位置(即數據在table數組中的索引) 2.有時兩個key會定位到相同的位置,表示發生了Hash碰撞。Java中HashMap採用了鏈地址法來解決Hash碰撞。(鏈地址法,簡單來講,就是數組加鏈表的結合。在每一個數組元素上都一個鏈表結構,當數據被Hash後,獲得數組下標,把數據放在對應下標元素的鏈表上。) 3.當鏈表長度大於8時,將這個鏈表轉換成紅黑樹,利用紅黑樹快速增刪改查的特色提升HashMap的性能。想了解更多紅黑樹數據結構的工做原理能夠參考http://blog.csdn.net/v_july_v/article/details/6105630數據結構
接下來,看存儲的數據結構代碼:
HashMap中存儲數據用的是一個數組:Node[] table,即哈希桶數組,明顯它是一個Node的數組。對照上圖中的第一列(數組table)。
數組中存儲的黑點的數據結構就是這裏的Node結構:
static class Node<K,V> implements Map.Entry<K,V> { final int hash; //用來定位數組索引位置 final K key; V value; Node<K,V> next; //鏈表的下一個node Node(int hash, K key, V value, Node<K,V> next) { ... } public final K getKey(){ ... } public final V getValue() { ... } public final String toString() { ... } public final int hashCode() { ... } public final V setValue(V newValue) { ... } public final boolean equals(Object o) { ... } }
Node是HashMap的一個內部類,實現了Map.Entry接口,本質是就是一個映射(鍵值對)。
在理解HashMap的擴容流程以前,咱們得先了解下HashMap的幾個字段。
int threshold; // 所能容納的key-value對極限 final float loadFactor; // 負載因子 int modCount; int size;
Node[] table的初始化長度length(默認值是16)
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
loadFactor爲負載因子(默認值是0.75),
static final float DEFAULT_LOAD_FACTOR = 0.75f;
threshold 是HashMap所能容納的最大數據量的Node(鍵值對)個數:threshold = length * loadFactor。超過這個數目就從新resize(擴容),擴容後的HashMap容量是以前容量的兩倍。默認的負載因子0.75是對空間和時間效率的一個平衡選擇,建議你們不要修改。
size 就是HashMap中實際存在的鍵值對數量。
modCount 主要用來記錄HashMap內部結構發生變化的次數,主要用於迭代的快速失敗。強調一點,內部結構發生變化指的是結構發生變化,例如put新鍵值對,可是某個key對應的value值被覆蓋不屬於結構變化。
分三步肯定:
方法一: static final int hash(Object key) { //jdk1.8 & jdk1.7 int h; // h = key.hashCode() 爲第一步 取hashCode值 // h ^ (h >>> 16) 爲第二步 高位參與運算 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } 方法二: static int indexFor(int h, int length) { //jdk1.7的源碼,jdk1.8沒有這個方法,可是實現原理同樣的 return h & (length-1); //第三步 取模運算 }
分析:
1.求hash值方法中,用h = key.hashCode()。而後將h的低16位和高16位異或,是爲了保證在數組table的length比較小的時候,讓高低位數據都參與到Hash的計算中,同時不會有太大的開銷。 2.length是數組的長度,取模運算求出數組索引。當length老是2的n次方時,h& (length-1)運算等價於對length取模,也就是h%length,可是&比%具備更高的效率。
高低位異或運算以下圖:(n爲table的長度)
public V put(K key, V value) { // 對key的hashCode()作hash return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //判斷鍵值對數組table[i]是否爲空或爲null,不然執行resize()進行擴容 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //根據鍵值key計算hash值獲得插入的數組索引i,若是table[i]==null,直接新建節點添加 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; //判斷table[i]的首個元素是否和key同樣,若是相同直接覆蓋value,這裏的相同指的是hashCode相等 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //判斷table[i] 是否爲treeNode,即table[i] 是不是紅黑樹,若是是紅黑樹,則直接在樹中插入鍵值對 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { //遍歷table[i],判斷鏈表長度是否大於8,大於8的話把鏈表轉換爲紅黑樹,在紅黑樹中執行插入操做,不然進行鏈表的插入操做;遍歷過程當中若發現key已經存在直接覆蓋value便可; for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; //插入成功後,判斷實際存在的鍵值對數量size是否超多了最大容量threshold,若是超過,進行擴容。 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
針對這個流程,網上出現了一張比較好的流程圖,這裏借用下(如有冒犯請留言,我將從新畫一個)
結合圖看代碼更清晰移動點。
JDK1.7中的擴容較好理解:使用一個容量更大的數組來代替已有的容量小的數組,並把數據從原來的數組中從新按照原來的計算方法放到新的數組中。
void resize(int newCapacity) { //傳入新的容量 Entry[] oldTable = table; //引用擴容前的Entry數組 int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的數組大小若是已經達到最大(2^30)了 threshold = Integer.MAX_VALUE; //修改閾值爲int的最大值(2^31-1),這樣之後就不會擴容了 return; } Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry數組 transfer(newTable); //!!將數據轉移到新的Entry數組裏 table = newTable; //HashMap的table屬性引用新的Entry數組 threshold = (int)(newCapacity * loadFactor);//修改閾值 }
void transfer(Entry[] newTable) { Entry[] src = table; //src引用了舊的Entry數組 int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數組 Entry<K,V> e = src[j]; //取得舊Entry數組的每一個元素 if (e != null) { src[j] = null;//釋放舊Entry數組的對象引用(for循環後,舊的Entry數組再也不引用任何對象) do { Entry<K,V> next = e.next; int i = indexFor(e.hash, newCapacity); //!!從新計算每一個元素在數組中的位置 e.next = newTable[i]; //標記[1] newTable[i] = e; //將元素放在數組上 e = next; //訪問下一個Entry鏈上的元素 } while (e != null); } } }
JDK1.8中,對擴容算法作了優化。咱們觀察下key1和key2在擴容前和擴容後的位置計算過程:
能夠看到以下結果:
咱們在擴充HashMap的時候,不須要像JDK1.7的實現那樣從新計算hash,只須要看看原來的hash值新增的那個bit是1仍是0就行了,是0的話索引沒變,是1的話索引變成「原索引+oldCap」。
能夠看看下圖爲16擴充爲32的resize示意圖: 這個設計確實很是的巧妙,既省去了從新計算hash值的時間,並且同時,因爲新增的1bit是0仍是1能夠認爲是隨機的,所以resize的過程,均勻的把以前的衝突的節點分散到新的bucket了。
具體代碼,有興趣的能夠仔細品讀如下代碼:
1 final Node<K,V>[] resize() { 2 Node<K,V>[] oldTab = table; 3 int oldCap = (oldTab == null) ? 0 : oldTab.length; 4 int oldThr = threshold; 5 int newCap, newThr = 0; 6 if (oldCap > 0) { 7 // 超過最大值就再也不擴充了,就只好隨你碰撞去吧 8 if (oldCap >= MAXIMUM_CAPACITY) { 9 threshold = Integer.MAX_VALUE; 10 return oldTab; 11 } 12 // 沒超過最大值,就擴充爲原來的2倍 13 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && 14 oldCap >= DEFAULT_INITIAL_CAPACITY) 15 newThr = oldThr << 1; // double threshold 16 } 17 else if (oldThr > 0) // initial capacity was placed in threshold 18 newCap = oldThr; 19 else { // zero initial threshold signifies using defaults 20 newCap = DEFAULT_INITIAL_CAPACITY; 21 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); 22 } 23 // 計算新的resize上限 24 if (newThr == 0) { 25 26 float ft = (float)newCap * loadFactor; 27 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? 28 (int)ft : Integer.MAX_VALUE); 29 } 30 threshold = newThr; 31 @SuppressWarnings({"rawtypes","unchecked"}) 32 Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; 33 table = newTab; 34 if (oldTab != null) { 35 // 把每一個bucket都移動到新的buckets中 36 for (int j = 0; j < oldCap; ++j) { 37 Node<K,V> e; 38 if ((e = oldTab[j]) != null) { 39 oldTab[j] = null; 40 if (e.next == null) 41 newTab[e.hash & (newCap - 1)] = e; 42 else if (e instanceof TreeNode) 43 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); 44 else { // 鏈表優化重hash的代碼塊 45 Node<K,V> loHead = null, loTail = null; 46 Node<K,V> hiHead = null, hiTail = null; 47 Node<K,V> next; 48 do { 49 next = e.next; 50 // 原索引 51 if ((e.hash & oldCap) == 0) { 52 if (loTail == null) 53 loHead = e; 54 else 55 loTail.next = e; 56 loTail = e; 57 } 58 // 原索引+oldCap 59 else { 60 if (hiTail == null) 61 hiHead = e; 62 else 63 hiTail.next = e; 64 hiTail = e; 65 } 66 } while ((e = next) != null); 67 // 原索引放到bucket裏 68 if (loTail != null) { 69 loTail.next = null; 70 newTab[j] = loHead; 71 } 72 // 原索引+oldCap放到bucket裏 73 if (hiTail != null) { 74 hiTail.next = null; 75 newTab[j + oldCap] = hiHead; 76 } 77 } 78 } 79 } 80 } 81 return newTab; 82 }
HashMap是線程不安全的,不要在併發的環境中同時操做HashMap,建議使用ConcurrentHashMap。