這幾天學習了HashMap的底層實現,可是發現好幾個版本的,代碼不一,並且看了Android包的HashMap和JDK中的HashMap的也不是同樣,原來他們沒有指定JDK版本,不少文章都是舊版本JDK1.6.JDK1.7的。如今我來分析一哈最新的JDK1.8的HashMap及性能優化。java
**在JDK1.6,JDK1.7中,HashMap採用位桶+鏈表實現,即便用鏈表處理衝突,**同一hash值的鏈表都存儲在一個鏈表裏。可是當位於一個桶中的元素較多,即hash值相等的元素較多時,經過key值依次查找的效率較低。而JDK1.8中,HashMap採用位桶+鏈表+紅黑樹實現,當鏈表長度超過閾值(8)時,將鏈表轉換爲紅黑樹,這樣大大減小了查找時間。node
簡單說下HashMap的實現原理:數組
首先有一個每一個元素都是鏈表(可能表述不許確)的數組,當添加一個元素(key-value)時,就首先計算元素key的hash值,以此肯定插入數組中的位置,可是可能存在同一hash值的元素已經被放在數組同一位置了,這時就添加到同一hash值的元素的後面,他們在數組的同一位置,可是造成了鏈表,同一各鏈表上的Hash值是相同的,因此說數組存放的是鏈表。而當鏈表長度太長時,鏈表就轉換爲紅黑樹,這樣大大提升了查找的效率。性能優化
當鏈表數組的容量超過初始容量的0.75時,再散列將鏈表數組擴大2倍,把原鏈表數組的搬移到新的數組中
即HashMap的原理圖是:
數據結構
一,JDK1.8中的涉及到的數據結構app
1,位桶數組函數
transient Node<k,v>\[\] table;//存儲(位桶)的數組</k,v>
2,數組元素Node實現了Entry接口性能
//Node是單向鏈表,它實現了Map.Entry接口 static class Node<k,v> implements Map.Entry<k,v> { final int hash; final K key; V value; Node<k,v> next; //構造函數Hash值 鍵 值 下一個節點 Node(int hash, K key, V value, Node<k,v> next) { this.hash = hash; this.key = key; this.value = value; this.next = next; } public final K getKey() { return key; } public final V getValue() { return value; } public final String toString() { return key + = + value; } public final int hashCode() { return Objects.hashCode(key) ^ Objects.hashCode(value); } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } //判斷兩個node是否相等,若key和value都相等,返回true。能夠與自身比較爲true public final boolean equals(Object o) { if (o == this) return true; if (o instanceof Map.Entry) { Map.Entry<!--?,?--> e = (Map.Entry<!--?,?-->)o; if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) return true; } return false; }
3,紅黑樹學習
//紅黑樹 static final class TreeNode<k,v> extends LinkedHashMap.Entry<k,v> { TreeNode<k,v> parent; // 父節點 TreeNode<k,v> left; //左子樹 TreeNode<k,v> right;//右子樹 TreeNode<k,v> prev; // needed to unlink next upon deletion boolean red; //顏色屬性 TreeNode(int hash, K key, V val, Node<k,v> next) { super(hash, key, val, next); } //返回當前節點的根節點 final TreeNode<k,v> root() { for (TreeNode<k,v> r = this, p;;) { if ((p = r.parent) == null) return r; r = p; } }
二,源碼中的數據域優化
加載因子(默認0.75):爲何須要使用加載因子,爲何須要擴容呢?由於若是填充比很大,說明利用的空間不少,若是一直不進行擴容的話,鏈表就會愈來愈長,這樣查找的效率很低,由於鏈表的長度很大(固然最新版本使用了紅黑樹後會改進不少),擴容以後,將原來鏈表數組的每個鏈表分紅奇偶兩個子鏈表分別掛在新鏈表數組的散列位置,這樣就減小了每一個鏈表的長度,增長查找效率
HashMap原本是以空間換時間,因此填充比不必太大。可是填充比過小又會致使空間浪費。若是關注內存,填充比能夠稍大,若是主要關注查找性能,填充比能夠稍小。
public class HashMap<k,v> extends AbstractMap<k,v> implements Map<k,v>, Cloneable, Serializable { private static final long serialVersionUID = 362498820763181265L; static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 static final int MAXIMUM_CAPACITY = 1 << 30;//最大容量 static final float DEFAULT_LOAD_FACTOR = 0.75f;//填充比 //當add一個元素到某個位桶,其鏈表長度達到8時將鏈表轉換爲紅黑樹 static final int TREEIFY_THRESHOLD = 8; static final int UNTREEIFY_THRESHOLD = 6; static final int MIN_TREEIFY_CAPACITY = 64; transient Node<k,v>[] table;//存儲元素的數組 transient Set<map.entry<k,v>> entrySet; transient int size;//存放元素的個數 transient int modCount;//被修改的次數fast-fail機制 int threshold;//臨界值 當實際大小(容量*填充比)超過臨界值時,會進行擴容 final float loadFactor;//填充比(......後面略)
三,HashMap的構造函數
HashMap的構造方法有4種,主要涉及到的參數有,指定初始容量,指定填充比和用來初始化的Map
//構造函數1 public HashMap(int initialCapacity, float loadFactor) { //指定的初始容量非負 if (initialCapacity < 0) throw new IllegalArgumentException(Illegal initial capacity: + initialCapacity); //若是指定的初始容量大於最大容量,置爲最大容量 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; //填充比爲正 if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException(Illegal load factor: + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity);//新的擴容臨界值 } //構造函數2 public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } //構造函數3 public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted } //構造函數4用m的元素初始化散列映射 public HashMap(Map<!--? extends K, ? extends V--> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); }
四,HashMap的存取機制
1,HashMap如何getValue值,看源碼
public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } /** * Implements Map.get and related methods * * @param hash hash for key * @param key the key * @return the node, or null if none */ final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab;//Entry對象數組 Node<K,V> first,e; //在tab數組中通過散列的第一個位置 int n; K k; /*找到插入的第一個Node,方法是hash值和n-1相與,tab[(n - 1) & hash]*/ //也就是說在一條鏈上的hash值相同的 if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) { /*檢查第一個Node是否是要找的Node*/ if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k))))//判斷條件是hash值要相同,key值要相同 return first; /*檢查first後面的node*/ if ((e = first.next) != null) { if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); /*遍歷後面的鏈表,找到key值和hash值都相同的Node*/ do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
get(key)方法時獲取key的hash值,計算hash&(n-1)獲得在鏈表數組中的位置first=tab\[hash&(n-1)\],先判斷first的key是否與參數key相等,不等就遍歷後面的鏈表找到相同的key值返回對應的Value值便可
2,HashMap如何put(key,value);看源碼
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } /** * Implements Map.put and related methods * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */ final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; /*若是table的在(n-1)&hash的值是空,就新建一個節點插入在該位置*/ if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); /*表示有衝突,開始處理衝突*/ else { Node<K,V> e; K k; /*檢查第一個Node,p是否是要找的值*/ if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k)))) e = p; else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { for (int binCount = 0; ; ++binCount) { /*指針爲空就掛在後面*/ if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); //若是衝突的節點數已經達到8個,看是否須要改變衝突節點的存儲結構, //treeifyBin首先判斷當前hashMap的長度,若是不足64,只進行 //resize,擴容table,若是達到64,那麼將衝突的存儲結構爲紅黑樹 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } /*若是有相同的key值就結束遍歷*/ if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } /*就是鏈表上有相同的key值*/ if (e != null) { // existing mapping for key,就是key的Value存在 V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue;//返回存在的Value值 } } ++modCount; /*若是當前大小大於門限,門限本來是初始容量*0.75*/ if (++size > threshold) resize();//擴容兩倍 afterNodeInsertion(evict); return null; }
下面簡單說下添加鍵值對put(key,value)的過程:
1,判斷鍵值對數組tab\[\]是否爲空或爲null,不然以默認大小resize();
2,根據鍵值key計算hash值獲得插入的數組索引i,若是tab\[i\]==null,直接新建節點添加,不然轉入3
3,判斷當前數組中處理hash衝突的方式爲鏈表仍是紅黑樹(check第一個節點類型便可),分別處理
五,HasMap的擴容機制resize();
**構造hash表時,若是不指明初始大小,默認大小爲16(即Node數組大小16),若是Node\[\]數組中的元素達到(填充比*Node.length)從新調整HashMap大小 變爲原來2倍大小,**擴容很耗時
/** * Initializes or doubles table size. If null, allocates in * accord with initial capacity target held in field threshold. * Otherwise, because we are using power-of-two expansion, the * elements from each bin must either stay at same index, or move * with a power of two offset in the new table. * * @return the table */ final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; /*若是舊錶的長度不是空*/ if (oldCap > 0) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } /*把新表的長度設置爲舊錶長度的兩倍,newCap=2*oldCap*/ else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) /*把新表的門限設置爲舊錶門限的兩倍,newThr=oldThr*2*/ newThr = oldThr << 1; // double threshold } /*若是舊錶的長度的是0,就是說第一次初始化表*/ else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { float ft = (float)newCap * loadFactor;//新表長度乘以加載因子 newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) /*下面開始構造新表,初始化表中的數據*/ Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab;//把新表賦值給table if (oldTab != null) {//原表不是空要把原表中數據移動到新表中 /*遍歷原來的舊錶*/ for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null)//說明這個node沒有鏈表直接放在新表的e.hash & (newCap - 1)位置 newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); /*若是e後邊有鏈表,到這裏表示e後面帶着個單鏈表,須要遍歷單鏈表,將每一個結點重*/ else { // preserve order保證順序 ////新計算在新表的位置,並進行搬運 Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next;//記錄下一個結點 //新表是舊錶的兩倍容量,實例上就把單鏈表拆分爲兩隊, //e.hash&oldCap爲偶數一隊,e.hash&oldCap爲奇數一對 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) {//lo隊不爲null,放在新表原位置 loTail.next = null; newTab[j] = loHead; } if (hiTail != null) {//hi隊不爲null,放在新表j+oldCap位置 hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
六,JDK1.8使用紅黑樹的改進
在java jdk8中對HashMap的源碼進行了優化,在jdk7中,HashMap處理「碰撞」的時候,都是採用鏈表來存儲,當碰撞的結點不少時,查詢時間是O(n)。
在jdk8中,HashMap處理「碰撞」增長了紅黑樹這種數據結構,當碰撞結點較少時,採用鏈表存儲,當較大時(>8個),採用紅黑樹(特色是查詢時間是O(logn))存儲(有一個閥值控制,大於閥值(8個),將鏈表存儲轉換成紅黑樹存儲)
問題分析:
你可能還知道哈希碰撞會對hashMap的性能帶來災難性的影響。若是多個hashCode()的值落到同一個桶內的時候,這些值是存儲到一個鏈表中的。最壞的狀況下,全部的key都映射到同一個桶中,這樣hashmap就退化成了一個鏈表——查找時間從O(1)到O(n)。
隨着HashMap的大小的增加,get()方法的開銷也愈來愈大。因爲全部的記錄都在同一個桶裏的超長鏈表內,平均查詢一條記錄就須要遍歷一半的列表。
JDK1.8HashMap的紅黑樹是這樣解決的:
**若是某個桶中的記錄過大的話(當前是TREEIFY_THRESHOLD = 8),HashMap會動態的使用一個專門的treemap實現來替換掉它。這樣作的結果會更好,是O(logn),而不是糟糕的O(n)。** 它是如何工做的?前面產生衝突的那些KEY對應的記錄只是簡單的追加到一個鏈表後面,這些記錄只能經過遍從來進行查找。可是超過這個閾值後HashMap開始將列表升級成一個二叉樹,**使用哈希值做爲樹的分支變量,若是兩個哈希值不等,但指向同一個桶的話,較大的那個會插入到右子樹裏。若是哈希值相等,HashMap但願key值最好是實現了Comparable接口的,這樣它能夠按照順序來進行插入**。這對HashMap的key來講並非必須的,不過若是實現了固然最好。若是沒有實現這個接口,在出現嚴重的哈希碰撞的時候,你就並別期望能得到性能提高了。