做爲一名 java 開發,基本上最經常使用的數據結構就是 HashMap 和 List,jdk 的 HashMap 設計仍是很是值得深刻學習的。html
不管是在面試仍是工做中,知道原理都對會咱們有很大的幫助。java
本篇的內容較長,建議先收藏,再細細品味。node
不一樣於網上簡單的源碼分析,更多的是實現背後的設計思想。git
涉及的內容比較普遍,從統計學中的泊松分佈,到計算機基礎的位運算,經典的紅黑樹、鏈表、數組等數據結構,也談到了 Hash 函數的相關介紹,文末也引入了美團對於 HashMap 的源碼分析,因此總體深度和廣度都比較大。github
思惟導圖以下:面試
本文是兩年前整理的,文中難免有疏漏過期的地方,歡迎你們提出寶貴的意見。redis
之因此這裏拿出來,有如下幾個目的:算法
(1)讓讀者理解 HashMap 的設計思想,知道 rehash 的過程。下一節咱們將本身實現一個 HashMap數組
(2)爲何要本身實現 HashMap?數據結構
最近在手寫 redis 框架,都說 redis 是一個特性更增強大的 Map,天然 HashMap 就是入門基礎。Redis 高性能中一個過人之處的設計就是漸進式 rehash,和你們一塊兒實現一個漸進式 rehash 的 map,更能體會和理解做者設計的巧妙。
想把常見的數據結構獨立爲一個開源工具,便於後期使用。好比此次手寫 redis,循環鏈表,LRU map 等都是從零開始寫的,不利於複用,還容易有 BUG。
好了,下面就讓咱們一塊兒開始 HashMap 的源碼之旅吧~
HashMap 是平時使用到很是多的一個集合類,感受有必要深刻學習一下。
首先嚐試本身閱讀一遍源碼。
$ java -version java version "1.8.0_91" Java(TM) SE Runtime Environment (build 1.8.0_91-b14) Java HotSpot(TM) 64-Bit Server VM (build 25.91-b14, mixed mode)
從結構實現來說,HashMap是數組+鏈表+紅黑樹(JDK1.8增長了紅黑樹部分)實現的。
基於哈希表實現的映射接口。這個實現提供了全部可選的映射操做,並容許空值和空鍵。(HashMap類大體至關於Hashtable,但它是非同步的,而且容許爲空。)
這個類不保證映射的順序;特別地,它不能保證順序會隨時間保持不變。
這個實現爲基本操做(get和put)提供了恆定時間的性能,假設哈希函數將元素適當地分散在各個桶中。對集合視圖的迭代須要與HashMap實例的「容量」(桶數)及其大小(鍵-值映射數)成比例的時間。所以,若是迭代性能很重要,那麼不要將初始容量設置得過高(或者負載係數過低),這是很是重要的。
HashMap實例有兩個影響其性能的參數: 初始容量和負載因子。
容量是哈希表中的桶數,初始容量只是建立哈希表時的容量。負載因子是在哈希表的容量自動增長以前,哈希表被容許達到的最大容量的度量。當哈希表中的條目數量超過負載因子和當前容量的乘積時,哈希表就會被從新哈希(也就是說,從新構建內部數據結構),這樣哈希表的桶數大約是原來的兩倍。
通常來講,默認的負載因子(0.75
)在時間和空間成本之間提供了很好的權衡。
較高的值減小了空間開銷,但增長了查找成本(反映在HashMap類的大多數操做中,包括get和put)。在設置映射的初始容量時,應該考慮映射中的指望條目數及其負載因子,以最小化重哈希操做的數量。若是初始容量大於條目的最大數量除以負載因子,就不會發生重哈希操做。
若是要將許多映射存儲在HashMap實例中,那麼使用足夠大的容量建立映射將使映射存儲的效率更高,而不是讓它根據須要執行自動重哈希以增加表。
注意,使用具備相同hashCode()的多個鍵確實能夠下降任何散列表的性能。爲了改善影響,當鍵具備可比性時,這個類可使用鍵之間的比較順序來幫助斷開鏈接。
注意,這個實現不是同步的。若是多個線程併發地訪問散列映射,而且至少有一個線程在結構上修改了映射,那麼它必須在外部同步。(結構修改是添加或刪除一個或多個映射的任何操做;僅更改與實例已經包含的鍵關聯的值並非結構修改。這一般是經過對天然封裝映射的對象進行同步來完成的。
若是不存在這樣的對象,則應該使用集合「包裝」 Collections.synchronizedMap 方法。這最好在建立時完成,以防止意外的對映射的非同步訪問:
Map m = Collections.synchronizedMap(new HashMap(...));
這個類的全部「集合視圖方法」返回的迭代器都是快速失敗的:若是在建立迭代器以後的任什麼時候候對映射進行結構上的修改,除了經過迭代器本身的remove方法,迭代器將拋出ConcurrentModificationException。所以,在併發修改的狀況下,迭代器會快速而乾淨地失敗,而不是在將來的不肯定時間內冒着任意的、不肯定的行爲的風險。
注意,迭代器的快速故障行爲不能獲得保證,由於通常來講,在存在非同步併發修改的狀況下,不可能作出任何硬性保證。快速失敗迭代器以最佳的方式拋出ConcurrentModificationException。所以,編寫依賴於此異常的程序來保證其正確性是錯誤的:迭代器的快速故障行爲應該僅用於檢測錯誤。
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {}
當前類實現了三個接口,咱們主要關心 Map
接口便可。
繼承了一個抽象類 AbstractMap
,這個暫時放在本節後面學習。
/** * The default initial capacity - MUST be a power of two. */ static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
看了下 statckoverflow,感受比較靠譜的解釋是:
它是這樣設計的,由於它容許使用快速位和操做將每一個鍵的哈希代碼包裝到表的容量範圍內,正如您在訪問表的方法中看到的:
final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { /// <-- bitwise 'AND' here ...
隱式指定較高值時使用的最大容量。
由任何帶有參數的構造函數。
必須是2的冪且小於 1<<30。
/** * The maximum capacity, used if a higher value is implicitly specified * by either of the constructors with arguments. * MUST be a power of two <= 1<<30. */ static final int MAXIMUM_CAPACITY = 1 << 30;
固然了 interger 的最大容量爲 2^31-1
除此以外,2**31是20億,每一個哈希條目須要一個對象做爲條目自己,一個對象做爲鍵,一個對象做爲值。
在爲應用程序中的其餘內容分配空間以前,最小對象大小一般爲24字節左右,所以這將是1440億字節。
能夠確定地說,最大容量限制只是理論上的。
感受實際內存也沒這麼大!
當負載因子較大時,去給table數組擴容的可能性就會少,因此相對佔用內存較少(空間上較少),可是每條entry鏈上的元素會相對較多,查詢的時間也會增加(時間上較多)。
反之就是,負載因子較少的時候,給table數組擴容的可能性就高,那麼內存空間佔用就多,可是entry鏈上的元素就會相對較少,查出的時間也會減小。
因此纔有了負載因子是時間和空間上的一種折中的說法。
因此設置負載因子的時候要考慮本身追求的是時間仍是空間上的少。
/** * The load factor used when none specified in constructor. */ static final float DEFAULT_LOAD_FACTOR = 0.75f;
其實 hashmap 源碼中有解釋。
Because TreeNodes are about twice the size of regular nodes, we use them only when bins contain enough nodes to warrant use (see TREEIFY_THRESHOLD). And when they become too small (due to removal or resizing) they are converted back to plain bins. In usages with well-distributed user hashCodes, tree bins are rarely used. Ideally, under random hashCodes, the frequency of nodes in bins follows a Poisson distribution (http://en.wikipedia.org/wiki/Poisson_distribution) with a parameter of about 0.5 on average for the default resizing threshold of 0.75, although with a large variance because of resizing granularity. Ignoring variance, the expected occurrences of list size k are (exp(-0.5) * pow(0.5, k) / factorial(k)). The first values are: 0: 0.60653066 1: 0.30326533 2: 0.07581633 3: 0.01263606 4: 0.00157952 5: 0.00015795 6: 0.00001316 7: 0.00000094 8: 0.00000006 more: less than 1 in ten million
簡單翻譯一下就是在理想狀況下,使用隨機哈希碼,節點出現的頻率在hash桶中遵循泊松分佈,同時給出了桶中元素個數和機率的對照表。
從上面的表中能夠看到當桶中元素到達8個的時候,機率已經變得很是小,也就是說用0.75做爲加載因子,每一個碰撞位置的鏈表長度超過8個是幾乎不可能的。
/** * The bin count threshold for using a tree rather than list for a * bin. Bins are converted to trees when adding an element to a * bin with at least this many nodes. The value must be greater * than 2 and should be at least 8 to mesh with assumptions in * tree removal about conversion back to plain bins upon * shrinkage. */ static final int TREEIFY_THRESHOLD = 8; /** * The bin count threshold for untreeifying a (split) bin during a * resize operation. Should be less than TREEIFY_THRESHOLD, and at * most 6 to mesh with shrinkage detection under removal. */ static final int UNTREEIFY_THRESHOLD = 6; /** * The smallest table capacity for which bins may be treeified. * (Otherwise the table is resized if too many nodes in a bin.) * Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts * between resizing and treeification thresholds. */ static final int MIN_TREEIFY_CAPACITY = 64;
使用紅黑樹而不是列表的bin count閾值。
當向具備至少這麼多節點的bin中添加元素時,bin被轉換爲樹。這個值必須大於2,而且應該至少爲8,以便與樹刪除中關於收縮後轉換回普通容器的假設相匹配。
在調整大小操做期間取消(分割)存儲庫的存儲計數閾值。
應小於TREEIFY_THRESHOLD,並最多6個網格與收縮檢測下去除。
最小的表容量,可爲容器進行樹狀排列。(不然,若是在一個bin中有太多節點,表將被調整大小。)
至少爲 4 * TREEIFY_THRESHOLD
,以免調整大小和樹化閾值之間的衝突。
基礎 hash 結點定義。
/** * Basic hash bin node, used for most entries. (See below for * TreeNode subclass, and in LinkedHashMap for its Entry subclass.) */ static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Node<K,V> next; Node(int hash, K key, V value, Node<K,V> next) { this.hash = hash; this.key = key; this.value = value; this.next = next; } public final K getKey() { return key; } public final V getValue() { return value; } public final String toString() { return key + "=" + value; } public final int hashCode() { return Objects.hashCode(key) ^ Objects.hashCode(value); } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } public final boolean equals(Object o) { // 快速判斷 if (o == this) return true; // 類型判斷 if (o instanceof Map.Entry) { Map.Entry<?,?> e = (Map.Entry<?,?>)o; if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) return true; } return false; } }
四個核心元素:
final int hash; // hash 值 final K key; // key V value; // value 值 Node<K,V> next; // 下一個元素結點
hash 算法以下。
直接 key/value 的異或(^
)。
Objects.hashCode(key) ^ Objects.hashCode(value);
其中 hashCode() 方法以下:
public static int hashCode(Object o) { return o != null ? o.hashCode() : 0; }
最後仍是會調用對象自己的 hashCode() 算法。通常咱們本身會定義。
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
計算key.hashCode(),並將(XORs)的高比特位分散到低比特位。
由於表使用的是power-of-two掩蔽,因此只在當前掩碼上方以位爲單位變化的哈希老是會發生衝突。
(已知的例子中有一組浮點鍵,它們在小表中保存連續的整數。)
所以,咱們應用了一種轉換,將高比特的影響向下傳播。
比特傳播的速度、效用和質量之間存在權衡。
由於許多常見的散列集已經合理分佈(因此不要受益於傳播),由於咱們用樹來處理大型的碰撞在垃圾箱,咱們只是XOR一些改變以最便宜的方式來減小系統lossage,以及將最高位的影響,不然永遠不會由於指數計算中使用的表。
這段代碼叫擾動函數。
HashMap擴容以前的數組初始大小才16。因此這個散列值是不能直接拿來用的。
用以前還要先作對數組的長度取模運算,獲得的餘數才能用來訪問數組下標。
putVal
函數源碼
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); //... }
其中這一句 tab[i = (n - 1) & hash])
這一步就是在尋找桶的過程,就是上圖總數組,根據容量取若是容量是16 對hash值取低16位,那麼下標範圍就在容量大小範圍內了。
這裏也就解釋了爲何 hashmap 的大小須要爲 2 的正整數冪,由於這樣(數組長度-1)正好至關於一個「低位掩碼」。
好比大小 16,則 (16-1) = 15 = 00000000 00000000 00001111(二進制);
10100101 11000100 00100101 & 00000000 00000000 00001111 ------------------------------- 00000000 00000000 00000101 //高位所有歸零,只保留末四位
可是問題是,散列值分佈再鬆散,要是隻取最後幾位的話,碰撞也會很嚴重。
擾動函數的價值以下:
右位移16位,正好是32bit的一半,本身的高半區和低半區作異或,就是爲了混合原始哈希碼的高位和低位,以此來加大低位的隨機性。
並且混合後的低位摻雜了高位的部分特徵,這樣高位的信息也被變相保留下來。
獲取對象 x 的類,若是這個類實現了 class C implements Comparable<C>
接口。
ps: 這個方法頗有借鑑意義,能夠作簡單的拓展。咱們能夠獲取任意接口泛型中的類型。
static Class<?> comparableClassFor(Object x) { if (x instanceof Comparable) { Class<?> c; Type[] ts, as; Type t; ParameterizedType p; if ((c = x.getClass()) == String.class) // bypass checks return c; if ((ts = c.getGenericInterfaces()) != null) { for (int i = 0; i < ts.length; ++i) { if (((t = ts[i]) instanceof ParameterizedType) && ((p = (ParameterizedType)t).getRawType() == Comparable.class) && (as = p.getActualTypeArguments()) != null && as.length == 1 && as[0] == c) // type arg is c return c; } } } return null; }
獲取兩個可比較對象的比較結果。
@SuppressWarnings({"rawtypes","unchecked"}) // for cast to Comparable static int compareComparables(Class<?> kc, Object k, Object x) { return (x == null || x.getClass() != kc ? 0 : ((Comparable)k).compareTo(x)); }
獲取 2 的冪
static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
public HashMap(int initialCapacity, float loadFactor) { // check... this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); }
emmm....爲何要這麼寫?性能嗎?
當在實例化HashMap實例時,若是給定了initialCapacity,因爲HashMap的capacity都是2的冪,所以這個方法用於找到大於等於initialCapacity的最小的2的冪(initialCapacity若是就是2的冪,則返回的仍是這個數)。
int n = cap - 1;
首先,爲何要對cap作減1操做。int n = cap - 1;
這是爲了防止,cap已是2的冪。若是cap已是2的冪, 又沒有執行這個減1操做,則執行完後面的幾條無符號右移操做以後,返回的capacity將是這個cap的2倍。若是不懂,要看完後面的幾個無符號右移以後再回來看看。
下面看看這幾個無符號右移操做:
若是n這時爲0了(通過了cap-1以後),則通過後面的幾回無符號右移依然是0,最後返回的capacity是1(最後有個n+1的操做)。
這裏只討論n不等於0的狀況。
n |= n >>> 1;
因爲n不等於0,則n的二進制表示中總會有一bit爲1,這時考慮最高位的1。
經過無符號右移1位,則將最高位的1右移了1位,再作或操做,使得n的二進制表示中與最高位的1緊鄰的右邊一位也爲1,如000011xxxxxx。
其餘依次類推
好比 initialCapacity = 10;
表達式 二進制 ------------------------------------------------------ initialCapacity = 10; int n = 9; 0000 1001 ------------------------------------------------------ n |= n >>> 1; 0000 1001 0000 0100 (右移1位) 或運算 = 0000 1101 ------------------------------------------------------ n |= n >>> 2; 0000 1101 0000 0011 (右移2位) 或運算 = 0000 1111 ------------------------------------------------------ n |= n >>> 4; 0000 1111 0000 0000 (右移4位) 或運算 = 0000 1111 ------------------------------------------------------ n |= n >>> 8; 0000 1111 0000 0000 (右移8位) 或運算 = 0000 1111 ------------------------------------------------------ n |= n >>> 16; 0000 1111 0000 0000 (右移16位) 或運算 = 0000 1111 ------------------------------------------------------ n = n+1; 0001 0000 結果:2^4 = 16;
下面的內容出自美團博客 Java 8系列之從新認識HashMap
因爲寫的很是好,此處就直接複製過來了。
HashMap的put方法執行過程能夠經過下圖來理解,本身有興趣能夠去對比源碼更清楚地研究學習。
①.判斷鍵值對數組table[i]是否爲空或爲null,不然執行resize()進行擴容;
②.根據鍵值key計算hash值獲得插入的數組索引i,若是table[i]==null,直接新建節點添加,轉向⑥,若是table[i]不爲空,轉向③;
③.判斷table[i]的首個元素是否和key同樣,若是相同直接覆蓋value,不然轉向④,這裏的相同指的是hashCode以及equals;
④.判斷table[i] 是否爲treeNode,即table[i] 是不是紅黑樹,若是是紅黑樹,則直接在樹中插入鍵值對,不然轉向⑤;
⑤.遍歷table[i],判斷鏈表長度是否大於8,大於8的話把鏈表轉換爲紅黑樹,在紅黑樹中執行插入操做,不然進行鏈表的插入操做;遍歷過程當中若發現key已經存在直接覆蓋value便可;
⑥.插入成功後,判斷實際存在的鍵值對數量size是否超多了最大容量threshold,若是超過,進行擴容。
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } /** * Implements Map.put and related methods * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */ final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
擴容(resize)就是從新計算容量,向HashMap對象裏不停的添加元素,而HashMap對象內部的數組沒法裝載更多的元素時,對象就須要擴大數組的長度,以便能裝入更多的元素。
固然Java裏的數組是沒法自動擴容的,方法是使用一個新的數組代替已有的容量小的數組,就像咱們用一個小桶裝水,若是想裝更多的水,就得換大水桶。
咱們分析下resize()的源碼,鑑於JDK1.8融入了紅黑樹,較複雜,爲了便於理解咱們仍然使用JDK1.7的代碼,好理解一些,本質上區別不大,具體區別後文再說。
void resize(int newCapacity) { //傳入新的容量 Entry[] oldTable = table; //引用擴容前的Entry數組 int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { //擴容前的數組大小若是已經達到最大(2^30)了 threshold = Integer.MAX_VALUE; //修改閾值爲int的最大值(2^31-1),這樣之後就不會擴容了 return; } Entry[] newTable = new Entry[newCapacity]; //初始化一個新的Entry數組 transfer(newTable); //!!將數據轉移到新的Entry數組裏 table = newTable; //HashMap的table屬性引用新的Entry數組 threshold = (int)(newCapacity * loadFactor);//修改閾值 }
這裏就是使用一個容量更大的數組來代替已有的容量小的數組,transfer() 方法將原有Entry數組的元素拷貝到新的Entry數組裏。
void transfer(Entry[] newTable) { Entry[] src = table; //src引用了舊的Entry數組 int newCapacity = newTable.length; for (int j = 0; j < src.length; j++) { //遍歷舊的Entry數組 Entry<K,V> e = src[j]; //取得舊Entry數組的每一個元素 if (e != null) { src[j] = null;//釋放舊Entry數組的對象引用(for循環後,舊的Entry數組再也不引用任何對象) do { Entry<K,V> next = e.next; int i = indexFor(e.hash, newCapacity); //!!從新計算每一個元素在數組中的位置 e.next = newTable[i]; //標記[1] newTable[i] = e; //將元素放在數組上 e = next; //訪問下一個Entry鏈上的元素 } while (e != null); } } }
newTable[i]的引用賦給了e.next,也就是使用了單鏈表的頭插入方式,同一位置上新元素總會被放在鏈表的頭部位置;
這樣先放在一個索引上的元素終會被放到Entry鏈的尾部(若是發生了hash衝突的話),這一點和Jdk1.8有區別,下文詳解。
在舊數組中同一條Entry鏈上的元素,經過從新計算索引位置後,有可能被放到了新數組的不一樣位置上。
下面舉個例子說明下擴容過程。假設了咱們的hash算法就是簡單的用key mod 一下表的大小(也就是數組的長度)。
其中的哈希桶數組table的size=2, 因此key = 三、七、5,put順序依次爲 五、七、3。
在mod 2之後都衝突在table[1]這裏了。
這裏假設負載因子 loadFactor=1,即當鍵值對的實際大小size 大於 table的實際大小時進行擴容。
接下來的三個步驟是哈希桶數組 resize成4,而後全部的Node從新rehash的過程。
通過觀測能夠發現,咱們使用的是2次冪的擴展(指長度擴爲原來2倍),因此,元素的位置要麼是在原位置,要麼是在原位置再移動2次冪的位置。
看下圖能夠明白這句話的意思,n爲table的長度,圖(a)表示擴容前的key1和key2兩種key肯定索引位置的示例,
圖(b)表示擴容後key1和key2兩種key肯定索引位置的示例,其中hash1是key1對應的哈希與高位運算結果。
元素在從新計算hash以後,由於n變爲2倍,那麼n-1的mask範圍在高位多1bit(紅色),所以新的index就會發生這樣的變化:
所以,咱們在擴充HashMap的時候,不須要像JDK1.7的實現那樣從新計算hash,只須要看看原來的hash值新增的那個bit是1仍是0就行了,是0的話索引沒變,是1的話索引變成「原索引+oldCap」,能夠看看下圖爲16擴充爲32的resize示意圖:
這個設計確實很是的巧妙,既省去了從新計算hash值的時間,並且同時,因爲新增的1bit是0仍是1能夠認爲是隨機的,所以resize的過程,均勻的把以前的衝突的節點分散到新的bucket了。
這一塊就是JDK1.8新增的優化點。
有一點注意區別,JDK1.7中rehash的時候,舊鏈表遷移新鏈表的時候,若是在新表的數組索引位置相同,則鏈表元素會倒置,可是從上圖能夠看出,JDK1.8不會倒置。
有興趣的同窗能夠研究下JDK1.8的resize源碼,寫的很贊:
/** * Initializes or doubles table size. If null, allocates in * accord with initial capacity target held in field threshold. * Otherwise, because we are using power-of-two expansion, the * elements from each bin must either stay at same index, or move * with a power of two offset in the new table. * * @return the table */ final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
若是你已經通讀全文,那麼你已經很是厲害了。
其實第一遍沒有完全理解也沒有關係,知道 HashMap 有一個 reHash 的過程就行,相似於 ArrayList 的 resize。
下一節咱們將一塊兒學習下本身手寫實現一個漸進式 rehash 的 HashMap,感興趣的能夠關注一下,便於實時接收最新內容。
以爲本文對你有幫助的話,歡迎點贊評論收藏轉發一波。你的鼓勵,是我最大的動力~
不知道你有哪些收穫呢?或者有其餘更多的想法,歡迎留言區和我一塊兒討論,期待與你的思考相遇。