繼續上回HashMap的學習 HashMap實現原理及源碼分析之JDK7html
轉載 Java8源碼-HashMap 基於JDK8的HashMap源碼解析 【jdk1.8】HashMap源碼分析node
首先看下HashMap在JDK8下數據結構:數組
JDK 8 以前: 緩存
JDK 8 以前 HashMap 的實現是 數組+鏈表,即便哈希函數取得再好,也很難達到元素百分百均勻分佈。
當 HashMap 中有大量的元素都存放到同一個桶中時,這個桶下有一條長長的鏈表,極端狀況下HashMap 就至關於一個單鏈表,假如單鏈表有 n 個元素,遍歷的時間複雜度就是 O(n),徹底失去了它的優點。
JDK 8 :
JDK7與JDK8中HashMap實現的最大區別就是對於衝突的處理方法。JDK 1.8 中引入了紅黑樹(當鏈表長度大於8時,鏈表轉化爲紅黑樹,查找時間複雜度爲 O(logn)),用 數組+鏈表+紅黑樹 的結構來優化這個問題。數據結構
一般,咱們把數組中的每一個節點(Node<K,V>)稱爲桶,每次往桶裏添加key-value鍵值對時,首先計算鍵值對中 key的hash值,根據hash值肯定插入到數組的位置,若是數組裏面有數據,就會發生hash衝突,此時按照尾插入法(JDK7及之前是頭插入法),添加key-value鍵值對到同一hash值的元素的後面,鏈表就這樣造成了。當鏈表長度超過8(TREEIFY_THRESHOLD)時,鏈表就轉換爲紅黑樹了。咱們一般將桶鏈接的鏈表/紅黑樹中的每一個元素稱爲bin。併發
一、HashMap類的頂部註釋:app
HashMap是Map接口基於哈希表的實現。這種實現提供了全部可選的Map操做,並容許key和value爲null(除了HashMap是unsynchronized的和容許使用null外,HashMap和HashTable大體相同。)。此類不保證映射的順序,特別是它不保證該順序恆久不變。 此實現假設哈希函數在桶內適當地分佈元素,爲基本實現(get 和 put)提供了穩定的性能。迭代 collection 視圖所需的時間與 HashMap 實例的「容量」(桶的數量)及其大小(鍵-值映射關係數)成比例。若是遍歷操做很重要,就不要把初始化容量initial capacity設置得過高(或將加載因子load factor設置得過低),不然會嚴重下降遍歷的效率。 HashMap有兩個影響性能的重要參數:初始化容量initial capacity、加載因子load factor。容量是哈希表中桶的數量,初始容量只是哈希表在建立時的容量。加載因子是哈希表在其容量自動增長以前能夠達到多滿的一種尺度。initial capacity*load factor就是當前容許的最大元素數目,超過initial capacity*load factor以後,HashMap就會進行rehashed操做來進行擴容,擴容後的的容量爲以前的兩倍。 一般,默認加載因子 (0.75) 在時間和空間成本上尋求一種折衷。加載因子太高雖然減小了空間開銷,但同時也增長了查詢成本(在大多數 HashMap類的操做中,包括 get 和 put 操做,都反映了這一點)。在設置初始容量時應該考慮到映射中所需的條目數及其加載因子,以便最大限度地減小rehash操做次數。若是初始容量大於最大條目數除以加載因子(capacity > size/factor),則不會發生rehash 操做。 若是不少映射關係要存儲在 HashMap 實例中,則相對於按需執行自動的 rehash 操做以增大表的容量來講,使用足夠大的初始容量建立它將使得映射關係能更有效地存儲。 注意,此實現不是同步的。若是多個線程同時訪問一個哈希映射,而其中至少一個線程從結構上修改了該映射,則它必須保持外部同步。(結構上的修改是指添加或刪除一個或多個映射關係的任何操做;僅改變與實例已經包含的鍵關聯的值不是結構上的修改。)這通常經過對天然封裝該映射的對象進行同步操做來完成。若是不存在這樣的對象,則應該使用 Collections.synchronizedMap 方法來「包裝」該映射。最好在建立時完成這一操做,以防止對映射進行意外的非同步訪問,以下所示: Map m = Collections.synchronizedMap(new HashMap(…)); 由全部此類的「collection 視圖方法」所返回的迭代器都是fail-fast 的:在迭代器建立以後,若是從結構上對映射進行修改,除非經過迭代器自己的remove方法,其餘任什麼時候間任何方式的修改,迭代器都將拋出 ConcurrentModificationException。所以,面對併發的修改,迭代器很快就會徹底失敗,而不冒在未來不肯定的時間發生任意不肯定行爲的風險。 注意,迭代器的快速失敗行爲不能獲得保證,通常來講,存在非同步的併發修改時,不可能做出任何堅定的保證。快速失敗迭代器盡最大努力拋出 ConcurrentModificationException。所以,編寫依賴於此異常的程序的作法是錯誤的,正確作法是:迭代器的快速失敗行爲應該僅用於檢測bug。 此類是 Java Collections Framework 的成員。 @author Doug Lea @author Josh Bloch @author Arthur van Hoff @author Neal Gafter @see Object#hashCode() @see Collection @see Map @see TreeMap @see Hashtable @since 1.2
從上面內容能夠總結:ide
二、HashMap類繼承關係圖:(idea工具:ctrl+alt+u)函數
HashMap類的定義:工具
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable
三、類成員變量:
/** * 默認初始化容量,值爲16 * 必須是2的n次冪. */ static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; /** * 最大容量, 容量不能超出這個值。若是一個更大的初始化容量在構造函數中被指定,將被MAXIMUM_CAPACITY替換. * 必須是2的倍數。最大容量爲1<<30,即2的30次方。 */ static final int MAXIMUM_CAPACITY = 1 << 30; /** * 默認的加載因子0.75。 */ static final float DEFAULT_LOAD_FACTOR = 0.75f; /** * 將鏈表轉化爲紅黑樹的臨界值。 * 當添加一個元素被添加到有至少TREEIFY_THRESHOLD個節點的桶中,桶中鏈表將被轉化爲樹形結構。 * 臨界值最小爲8 */ static final int TREEIFY_THRESHOLD = 8; /** * 恢復成鏈式結構的桶大小臨界值 * 小於TREEIFY_THRESHOLD,臨界值最大爲6 */ static final int UNTREEIFY_THRESHOLD = 6; /** * 桶可能被轉化爲樹形結構的最小容量。當哈希表的大小超過這個閾值,纔會把鏈式結構轉化成樹型結構,不然僅採起擴容來嘗試減小衝突。 * 應該至少4*TREEIFY_THRESHOLD來避免擴容和樹形結構化之間的衝突。 */ static final int MIN_TREEIFY_CAPACITY = 64; /** * 存儲鍵值對的數組,通常是2的冪 */ transient Node<K,V>[] table; /** * 鍵值對緩存,它們的映射關係集合保存在entrySet中。即便Key在外部修改致使hashCode變化,緩存中還能夠找到映射關係 */ transient Set<Map.Entry<K,V>> entrySet; /** * 鍵值對的實際個數 */ transient int size; /** * 記錄HashMap被修改結構的次數。 * 修改包括改變鍵值對的個數或者修改內部結構,好比rehash * 這個域被用做HashMap的迭代器的fail-fast機制中(參考ConcurrentModificationException) */ transient int modCount; /** * 擴容的臨界值,經過capacity * load factor能夠計算出來。超過這個值HashMap將進行擴容 * @serial */ int threshold; /** * 加載因子 * * @serial */ final float loadFactor;
四、靜態內部類Node:
/** * HashMap的節點類型。既是HashMap底層數組的組成元素,又是每一個單向鏈表的組成元素 */ static class Node<K,V> implements Map.Entry<K,V> { //key的哈希值 final int hash; final K key; V value; //指向下個節點的引用 Node<K,V> next; //構造函數 Node(int hash, K key, V value, Node<K,V> next) { this.hash = hash; this.key = key; this.value = value; this.next = next; } public final K getKey() { return key; } public final V getValue() { return value; } public final String toString() { return key + "=" + value; } public final int hashCode() { return Objects.hashCode(key) ^ Objects.hashCode(value); } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } public final boolean equals(Object o) { if (o == this) return true; if (o instanceof Map.Entry) { Map.Entry<?,?> e = (Map.Entry<?,?>)o; if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) return true; } return false; } }
五、核心方法:
get(Object key)方法:
public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; }
從源碼中能夠看到, get(Object key)方法分爲3步:
先來看看哈希值是如何計算的:
hash(Object key) 方法:
增長、刪除、查找鍵值對時,定位到哈希桶數組是很關鍵的一步,對應的公式是:(n - 1) & hash。其中 n = 數組長度,hash = hash(Object key) 的結果值。
* 計算key的哈希值。 */ static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
從代碼中能夠看到,計算位置時可分爲三步:
看到這裏有個疑問,爲何要作異或運算?
設想一下,若是n很小,假設爲16的話,那麼n-1即爲15(0000 0000 0000 0000 0000 0000 0000 1111),這樣的值若是跟hashCode()直接作與操做,實際上只使用了哈希值的後4位。若是當哈希值的高位變化很大,低位變化很小,這樣很容易形成碰撞,因此把高低位都參與到計算中,從而解決了這個問題,並且也不會有太大的開銷。
看完哈希值是如何計算以後,看看如何經過key和hash獲取node
getNode(int hash, Object key) 方法:
/** * 根據key的哈希值和key獲取對應的節點 * * @param hash 指定參數key的哈希值 * @param key 指定參數key * @return 返回node,若是沒有則返回null */ final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; //若是哈希表不爲空,並且key對應的桶上不爲空 if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { //若是桶中的第一個節點就和指定參數hash和key匹配上了 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) //返回桶中的第一個節點 return first; //若是桶中的第一個節點沒有匹配上,並且有後續節點 if ((e = first.next) != null) { //若是當前的桶採用紅黑樹,則調用紅黑樹的get方法去獲取節點 if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); //若是當前的桶不採用紅黑樹,即桶中節點結構爲鏈式結構 do { //遍歷鏈表,直到key匹配 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } //若是哈希表爲空,或者沒有找到節點,返回null return null; }
getNode方法又可分爲如下幾個步驟:
put( K key, V value)方法:
/** * 將指定參數key和指定參數value插入map中,若是key已經存在,那就替換key對應的value * * @param key 指定key * @param value 指定value * @return 若是value被替換,則返回舊的value,不然返回null。固然,可能key對應的value就是null。 */ public V put(K key, V value) { //putVal方法的實現就在下面 return putVal(hash(key), key, value, false, true); }
從源碼中能夠看到,put(K key, V value)能夠分爲三個步驟:
哈希值是如何計算的上面已經寫了。下面看看putVal方法是如何實現的。
putVal( int hash, K key, V value, boolean onlyIfAbsent,boolean evict) 方法:
/** * Map.put和其餘相關方法的實現須要的方法 * * @param hash 指定參數key的哈希值 * @param key 指定參數key * @param value 指定參數value * @param onlyIfAbsent 若是爲true,即便指定參數key在map中已經存在,也不會替換value * @param evict 若是爲false,數組table在建立模式中 * @return 若是value被替換,則返回舊的value,不然返回null。固然,可能key對應的value就是null。 */ final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //若是哈希表爲空,調用resize()建立一個哈希表,並用變量n記錄哈希表長度 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //若是指定參數hash在表中沒有對應的桶,即爲沒有碰撞 if ((p = tab[i = (n - 1) & hash]) == null) //直接將鍵值對插入到map中便可 tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; //若是碰撞了,且桶中的第一個節點就匹配了 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) //將桶中的第一個節點記錄起來 e = p; //若是桶中的第一個節點沒有匹配上,且桶內爲紅黑樹結構,則調用紅黑樹對應的方法插入鍵值對 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //不是紅黑樹結構,那麼就確定是鏈式結構 else { //遍歷鏈式結構 for (int binCount = 0; ; ++binCount) { //若是到了鏈表尾部 if ((e = p.next) == null) { //在鏈表尾部插入鍵值對 p.next = newNode(hash, key, value, null); //若是鏈的長度大於TREEIFY_THRESHOLD這個臨界值,則把鏈變爲紅黑樹 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); //跳出循環 break; } //若是找到了重複的key,判斷鏈表中結點的key值與插入的元素的key值是否相等,若是相等,跳出循環 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; //用於遍歷桶中的鏈表,與前面的e = p.next組合,能夠遍歷鏈表 p = e; } } //若是key映射的節點不爲null if (e != null) { // existing mapping for key //記錄節點的vlaue V oldValue = e.value; //若是onlyIfAbsent爲false,或者oldValue爲null if (!onlyIfAbsent || oldValue == null) //替換value e.value = value; //訪問後回調 afterNodeAccess(e); //返回節點的舊值 return oldValue; } } //結構型修改次數+1 ++modCount; //判斷是否須要擴容 if (++size > threshold) resize(); //插入後回調 afterNodeInsertion(evict); return null; }
put(K key, V value)方法操做流程圖以下:
putVal方法能夠分爲下面的幾個步驟:
resize()方法:
向hashMap對象裏不停的添加元素,而HashMap對象內部的數組沒法裝載更多的元素時,hashMap就須要擴大數組的長度,以便能裝入更多的元素。固然數組是沒法自動擴容的,擴容方法使用一個新的數組代替已有的容量小的數組。
resize方法很是巧妙,由於每次擴容都是翻倍,與原來計算(n-1)&hash的結果相比,節點要麼就在原來的位置,要麼就被分配到「原位置+舊容量」這個位置。
/** * 對table進行初始化或者擴容。 * 若是table爲null,則對table進行初始化 * 若是對table擴容,由於每次擴容都是翻倍,與原來計算(n-1)&hash的結果相比,節點要麼就在原來的位置,要麼就被分配到「原位置+舊容量」這個位置。 */ final Node<K,V>[] resize() { //新建oldTab數組保存擴容前的數組table Node<K,V>[] oldTab = table; //使用變量oldCap保存擴容前table的容量 int oldCap = (oldTab == null) ? 0 : oldTab.length; //使用變量oldThr保存擴容前的臨界值 int oldThr = threshold; int newCap, newThr = 0; //若是擴容前的容量 > 0 if (oldCap > 0) { //若是當前(擴容前)容量>=MAXIMUM_CAPACITY if (oldCap >= MAXIMUM_CAPACITY) { //擴容臨界值提升到正無窮 threshold = Integer.MAX_VALUE; //沒法進行擴容,返回原來的數組 return oldTab; } //若是當前容量的兩倍小於MAXIMUM_CAPACITY且當前的容量大於DEFAULT_INITIAL_CAPACITY else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&oldCap >= DEFAULT_INITIAL_CAPACITY) //臨界值變爲原來的2倍 newThr = oldThr << 1; }//若是舊容量 <= 0,並且舊臨界值 > 0 else if (oldThr > 0) //數組的新容量設置爲老數組的擴容臨界值 newCap = oldThr; else {//若是舊容量 <= 0,且舊臨界值 <= 0,新容量擴充爲默認初始化容量,新臨界值爲默認加載因子*默認容量(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY) newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) {//在上面的條件判斷中,只有oldThr > 0成立時,newThr == 0 //ft爲臨時臨界值,下面會肯定這個臨界值是否合法,若是合法,那就是真正的臨界值 float ft = (float)newCap * loadFactor; //當新容量< MAXIMUM_CAPACITY且ft < (float)MAXIMUM_CAPACITY,新的臨界值爲ft,不然爲Integer.MAX_VALUE newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } //將擴容後hashMap的臨界值設置爲newThr threshold = newThr; //建立新的table,初始化容量爲newCap @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; //修改hashMap的table爲新建的newTab table = newTab; //若是舊table不爲空,將舊table中的元素複製到新的table中 if (oldTab != null) { //遍歷舊哈希表的每一個桶,將舊哈希表中的桶複製到新的哈希表中 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; //若是舊桶不爲null,使用e記錄舊桶 if ((e = oldTab[j]) != null) { //將舊桶置爲null oldTab[j] = null; //若是舊桶中只有一個node if (e.next == null) //將e也就是oldTab[j]放入newTab中e.hash & (newCap - 1)的位置 newTab[e.hash & (newCap - 1)] = e; //若是舊桶中的結構爲紅黑樹 else if (e instanceof TreeNode) //將樹中的node分離 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { //lo == low, hi == high。因爲數組翻倍了,至關於低位是老的數組,高位是新的一半。 Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; //遍歷整個鏈表中的節點 do { next = e.next; // 將桶中的元素按照hash值擴容以後新容量的高位的末位是否爲0來判斷是否分割,完成rehash if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null);
// 低位 if (loTail != null) { loTail.next = null; newTab[j] = loHead; }
// 高位(新數組一半的位置) if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } }
// 返回新數組 return newTab; }
以下圖(桶中的元素被分割了)
從代碼中能夠看到,擴容很耗性能。因此在使用HashMap的時候,先估算map的大小,初始化的時候給一個大體的數值,避免map進行頻繁的擴容。看完代碼後,能夠將resize的步驟總結爲:
remove(Object key)方法:
/** * 刪除hashMap中key映射的node * * @param key 參數key * @return 若是沒有映射到node,返回null,不然返回對應的value。 */ public V remove(Object key) { Node<K,V> e; //根據key來刪除node。removeNode方法的具體實如今下面 return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value; }
從源碼中能夠看到,remove方法的實現能夠分爲三個步驟:
下面看看removeNode方法的具體實現
removeNode(int hash, Object key, Object value,boolean matchValue, boolean movable) 方法:
/** * Map.remove和相關方法的實現須要的方法 * 刪除node * * @param hash key的哈希值 * @param key 參數key * @param value 若是matchValue爲true,則value也做爲肯定被刪除的node的條件之一,不然忽略 * @param matchValue 若是爲true,則value也做爲肯定被刪除的node的條件之一 * @param movable 若是爲false,刪除node時不會刪除其餘node * @return 返回被刪除的node,若是沒有node被刪除,則返回null(針對紅黑樹的刪除方法) */ final Node<K,V> removeNode(int hash, Object key, Object value,boolean matchValue, boolean movable) { Node<K,V>[] tab; Node<K,V> p; int n, index; //若是數組table不爲空且key映射到的桶不爲空 if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) { Node<K,V> node = null, e; K k; V v; //若是桶上第一個node的就是要刪除的node if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) //記錄桶上第一個node node = p; else if ((e = p.next) != null) {//若是桶內不止一個node if (p instanceof TreeNode)//若是桶內的結構爲紅黑樹 //記錄key映射到的node node = ((TreeNode<K,V>)p).getTreeNode(hash, key); else {//若是桶內的結構爲鏈表 do {//遍歷鏈表,找到key映射到的node if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { //記錄key映射到的node node = e; break; } p = e; } while ((e = e.next) != null); } } //若是獲得的node不爲null且(matchValue爲false||node.value和參數value匹配) if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { //若是桶內的結構爲紅黑樹 if (node instanceof TreeNode) //使用紅黑樹的刪除方法刪除node ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable); else if (node == p)//若是桶的第一個node的就是要刪除的node //刪除node tab[index] = node.next; else//若是桶內的結構爲鏈表,使用鏈表刪除元素的方式刪除node p.next = node.next; //結構性修改次數+1 ++modCount; //哈希表大小-1 --size; afterNodeRemoval(node); //返回被刪除的node return node; } } //若是數組table爲空或key映射到的桶爲空,返回null。 return null; }
看完代碼後,能夠將removeNode方法的步驟總結爲
tableSizeFor(int cap)方法:
/** * 返回大於等於cap的最小的二次冪數值。 */ static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
6.構造函數:
HashMap(int initialCapacity, float loadFactor) 方法:
/** * 使用指定的初始化容量initial capacity 和加載因子load factor構造一個空HashMap * * @param initialCapacity 初始化容量 * @param loadFactor 加載因子 * @throws IllegalArgumentException 若是指定的初始化容量爲負數或者加載因子爲非正數。 */ public HashMap(int initialCapacity, float loadFactor) { //初始容量不能小於零 if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); //初始容量不能大於最大容量 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; //填充因子不能小於等於零或者非數字 if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); //進行初始化賦值 this.loadFactor = loadFactor;
// tableSizeFor(initailCapacity)方法返回大於給定cap的最小2次冪的數值 this.threshold = tableSizeFor(initialCapacity); }
HashMap(int initialCapacity) 方法:
/** * 使用指定的初始化容量initial capacity和默認加載因子DEFAULT_LOAD_FACTOR(0.75)構造一個空HashMap * * @param initialCapacity 初始化容量 * @throws IllegalArgumentException 若是指定的初始化容量爲負數 */ public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); }
HashMap() 方法:
/** * 使用指定的初始化容量(16)和默認加載因子DEFAULT_LOAD_FACTOR(0.75)構造一個空HashMap */ public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted }
HashMap( Map<? extends K, ? extends V>m) 方法:
/** * 使用指定Map m構造新的HashMap,即將m中的每一個元素放入如今的HashMap中。使用指定的初始化容量(16)和默認加載因子DEFAULT_LOAD_FACTOR(0.75) * @param m 指定的map * @throws NullPointerException 若是指定的map是null */ public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); }
JDK7 與 JDK8 中關於HashMap的對比:
結構不一樣:
hash值的計算方式不一樣
發生衝突時:
resize操做: