本篇博客咱們來介紹在 JDK1.8 中 HashMap 的源碼實現,這也是最經常使用的一個集合。可是在介紹 HashMap 以前,咱們先介紹什麼是 Hash表。html
Hash表也稱爲散列表,也有直接譯做哈希表,Hash表是一種根據關鍵字值(key - value)而直接進行訪問的數據結構。也就是說它經過把關鍵碼值映射到表中的一個位置來訪問記錄,以此來加快查找的速度。在鏈表、數組等數據結構中,查找某個關鍵字,一般要遍歷整個數據結構,也就是O(N)的時間級,可是對於哈希表來講,只是O(1)的時間級。java
好比對於前面咱們講解的 ArrayList 集合和 LinkedList ,若是咱們要查找這兩個集合中的某個元素,一般是經過遍歷整個集合,須要O(N)的時間級。node
若是是哈希表,它是經過把關鍵碼值映射到表中一個位置來訪問記錄,以加快查找的速度。這個映射函數叫作散列函數,存放記錄的數組叫作散列表,只須要O(1)的時間級。算法
①、存放在哈希表中的數據是key-value 鍵值對,好比存放哈希表的數據爲:api
{Key1-Value1,Key2-Value2,Key3-Value3,Key4-Value4,Key5-Value5,Key6-Value6}數組
若是咱們想查找是否存在鍵值對 Key3-Value3,首先經過 Key3 通過散列函數,獲得值 k3,而後經過 k3 和散列表對應的值找到是 Value3。緩存
②、固然也有可能存放哈希表的值只是 Value1,Value2,Value3這種類型:安全
{Value1,Value2,Value3,Value4,Value5,Value6}微信
這時候咱們能夠假設 Value1 是等於 Key1的,也就是{Value1-Value1,Value2-Value2,Value3-Value3,Value4-Value4,Value5-Value5,Value6-Value6}能夠將 Value1通過散列函數轉換成與散列表對應的值。數據結構
你們都用過漢語字典吧,漢語字典的優勢是咱們能夠經過前面的拼音目錄快速定位到所要查找的漢字。當給定咱們某個漢字時,大腦會自動將漢字轉換成拼音(若是咱們認識,不認識能夠經過偏旁部首),這個轉換的過程咱們能夠當作是一個散列函數,以後在根據轉換獲得的拼音找到該字所在的頁碼,從而找到該漢字。
漢語字典是哈希表的典型實現,可是咱們仔細思考,會發現這樣幾個問題?
①、爲何要有散列函數?
②、多個 key 經過散列函數會獲得相同的值,這時候怎麼辦?
對於第一個問題,散列函數的存在可以幫助咱們更快的肯定key和value的映射關係,試想一下,若是沒有漢字和拼音的轉換規則(或者漢字和偏旁部首的),給你一個漢字,你該如何從字典中找到該漢字?我想除了遍歷整部字典,你沒有什麼更好的辦法。
對於第二個問題,多個 key 經過散列函數獲得相同的值,這其實也是哈希表最大的問題——衝突。好比同音字漢字,咱們獲得的拼音就會是相同的,那麼咱們該如何在字典中存放同音字漢字呢?有兩種作法:
第一種是開放地址法,當咱們遇到衝突了,這時候經過另外一種函數再計算一遍,獲得相應的映射關係。好比對於漢語字典,一個字 「餘」,拼音是「yu」,咱們將其放在頁碼爲567(假設在該位置),這時候又來了一個漢字「於」,拼音也是「yu」,那麼這時候咱們要是按照轉換規則,也得將其放在頁碼爲567的位置,可是咱們發現這個頁碼已經被佔用了,這時候怎麼辦?咱們能夠在經過另外一種函數,獲得的值加1。那麼漢字"於"就會被放在576+1=577的位置。
第二種是鏈地址法,咱們能夠將字典的每一頁都當作是一個子數組或者子鏈表,當遇到衝突了,直接往當前頁碼的子數組或者子鏈表裏面填充便可。那麼咱們進行同音字查找的時候,可能須要遍歷其子數組或者子鏈表。以下圖所示:
對於開放地址法,可能會遇到二次衝突,三次衝突,因此須要良好的散列函數,分佈的越均勻越好。對於鏈地址法,雖然不會形成二次衝突,可是若是一次衝突不少,那麼會形成子數組或者子鏈表很長,那麼咱們查找所需遍歷的時間也會很長。
聽名字就知道,HashMap 是一個利用哈希表原理來存儲元素的集合。遇到衝突時,HashMap 是採用的鏈地址法來解決,在 JDK1.7 中,HashMap 是由 數組+鏈表構成的。可是在 JDK1.8 中,HashMap 是由 數組+鏈表+紅黑樹構成,新增了紅黑樹做爲底層數據結構,結構變得複雜了,可是效率也變的更高效。下面咱們來具體介紹在 JDK1.8 中 HashMap 是如何實現的。
HashMap 是一個散列表,它存儲的內容是鍵值對(key-value)映射,並且 key 和 value 均可覺得 null。
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
首先該類實現了一個 Map 接口,該接口定義了一組鍵值對映射通用的操做。儲存一組成對的鍵-值對象,提供key(鍵)到value(值)的映射,Map中的key不要求有序,不容許重複。value一樣不要求有序,但能夠重複。可是咱們發現該接口方法有不少,咱們設計某個鍵值對的集合有時候並不像實現那麼多方法,那該怎麼辦?
JDK 還爲咱們提供了一個抽象類 AbstractMap ,該抽象類繼承 Map 接口,因此若是咱們不想實現全部的 Map 接口方法,就能夠選擇繼承抽象類 AbstractMap 。
可是咱們發現 HashMap 類即繼承了 AbstractMap 接口,也實現了 Map 接口,這樣作難道不是畫蛇添足?後面咱們會講的 LinkedHashSet 集合也有這樣的寫法。
畢竟 JDK 通過這麼多年的發展維護,博主起初也是認爲這樣是有具體的做用的,後來找了不少資料,發現這其實徹底沒有任何做用
據 java 集合框架的創始人Josh Bloch描述,這樣的寫法是一個失誤。在java集合框架中,相似這樣的寫法不少,最開始寫java集合框架的時候,他認爲這樣寫,在某些地方多是有價值的,直到他意識到錯了。顯然的,JDK的維護者,後來不認爲這個小小的失誤值得去修改,因此就這樣存在下來了。
HashMap 集合還實現了 Cloneable 接口以及 Serializable 接口,分別用來進行對象克隆以及將對象進行序列化。
//序列化和反序列化時,經過該字段進行版本一致性驗證 private static final long serialVersionUID = 362498820763181265L; //默認 HashMap 集合初始容量爲16(必須是 2 的倍數) static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 //集合的最大容量,若是經過帶參構造指定的最大容量超過此數,默認仍是使用此數 static final int MAXIMUM_CAPACITY = 1 << 30; //默認的填充因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; //當桶(bucket)上的結點數大於這個值時會轉成紅黑樹(JDK1.8新增) static final int TREEIFY_THRESHOLD = 8; //當桶(bucket)上的節點數小於這個值時會轉成鏈表(JDK1.8新增) static final int UNTREEIFY_THRESHOLD = 6; /**(JDK1.8新增) * 當集合中的容量大於這個值時,表中的桶才能進行樹形化 ,不然桶內元素太多時會擴容, * 而不是樹形化 爲了不進行擴容、樹形化選擇的衝突,這個值不能小於 4 * TREEIFY_THRESHOLD */ static final int MIN_TREEIFY_CAPACITY = 64;
注意:後面三個字段是 JDK1.8 新增的,主要是用來進行紅黑樹和鏈表的互相轉換。
/** * 初始化使用,長度老是 2的冪 */ transient Node<K,V>[] table; /** * 保存緩存的entrySet() */ transient Set<Map.Entry<K,V>> entrySet; /** * 此映射中包含的鍵值映射的數量。(集合存儲鍵值對的數量) */ transient int size; /** * 跟前面ArrayList和LinkedList集合中的字段modCount同樣,記錄集合被修改的次數 * 主要用於迭代器中的快速失敗 */ transient int modCount; /** * 調整大小的下一個大小值(容量*加載因子)。capacity * load factor */ int threshold; /** * 散列表的加載因子。 */ final float loadFactor;
下面咱們重點介紹上面幾個字段:
①、Node<K,V>[] table
咱們說 HashMap 是由數組+鏈表+紅黑樹組成,這裏的數組就是 table 字段。後面對其進行初始化長度默認是 DEFAULT_INITIAL_CAPACITY= 16。並且 JDK 聲明數組的長度老是 2的n次方(必定是合數),爲何這裏要求是合數,通常咱們知道哈希算法爲了不衝突都要求長度是質數,這裏要求是合數,下面在介紹 HashMap 的hashCode() 方法(散列函數),咱們再進行講解。
②、size
集合中存放key-value 的實時對數。
③、loadFactor
裝載因子,是用來衡量 HashMap 滿的程度,計算HashMap的實時裝載因子的方法爲:size/capacity,而不是佔用桶的數量去除以capacity。capacity 是桶的數量,也就是 table 的長度length。
默認的負載因子0.75 是對空間和時間效率的一個平衡選擇,建議你們不要修改,除非在時間和空間比較特殊的狀況下,若是內存空間不少而又對時間效率要求很高,能夠下降負載因子loadFactor 的值;相反,若是內存空間緊張而對時間效率要求不高,能夠增長負載因子 loadFactor 的值,這個值能夠大於1。
④、threshold
計算公式:capacity * loadFactor。這個值是當前已佔用數組長度的最大值。過這個數目就從新resize(擴容),擴容後的 HashMap 容量是以前容量的兩倍
①、默認無參構造函數
/** * 默認構造函數,初始化加載因子loadFactor = 0.75 */ public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; }
無參構造器,初始化散列表的加載因子爲0.75
②、指定初始容量的構造函數
/** * * @param initialCapacity 指定初始化容量 * @param loadFactor 加載因子 0.75 */ public HashMap(int initialCapacity, float loadFactor) { //初始化容量不能小於 0 ,不然拋出異常 if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); //若是初始化容量大於2的30次方,則初始化容量都爲2的30次方 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; //若是加載因子小於0,或者加載因子是一個非數值,拋出異常 if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); } // 返回大於等於initialCapacity的最小的二次冪數值。 // >>> 操做符表示無符號右移,高位取0。 // | 按位或運算 static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
前面咱們講解哈希表的時候,咱們知道是用散列函數來肯定索引的位置。散列函數設計的越好,使得元素分佈的越均勻。HashMap 是數組+鏈表+紅黑樹的組合,咱們但願在有限個數組位置時,儘可能每一個位置的元素只有一個,那麼當咱們用散列函數求得索引位置的時候,咱們能立刻知道對應位置的元素是否是咱們想要的,而不是要進行鏈表的遍歷或者紅黑樹的遍歷,這會大大優化咱們的查詢效率。咱們看 HashMap 中的哈希算法:
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } i = (table.length - 1) & hash;//這一步是在後面添加元素putVal()方法中進行位置的肯定
主要分爲三步:
①、取 hashCode 值: key.hashCode()
②、高位參與運算:h>>>16
③、取模運算:(n-1) & hash
這裏獲取 hashCode() 方法的值是變量,可是咱們知道,對於任意給定的對象,只要它的 hashCode() 返回值相同,那麼程序調用 hash(Object key) 所計算獲得的 hash碼 值老是相同的。
爲了讓數組元素分佈均勻,咱們首先想到的是把得到的 hash碼對數組長度取模運算( hash%length),可是計算機都是二進制進行操做,取模運算相對開銷仍是很大的,那該如何優化呢?
HashMap 使用的方法很巧妙,它經過 hash & (table.length -1)來獲得該對象的保存位,前面說過 HashMap 底層數組的長度老是2的n次方,這是HashMap在速度上的優化。當 length 老是2的n次方時,hash & (length-1)運算等價於對 length 取模,也就是 hash%length,可是&比%具備更高的效率。好比 n % 32 = n & (32 -1)
這也解釋了爲何要保證數組的長度老是2的n次方。
再就是在 JDK1.8 中還有個高位參與運算,hashCode() 獲得的是一個32位 int 類型的值,經過hashCode()的高16位 異或 低16位實現的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、質量來考慮的,這麼作能夠在數組table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。
下面舉例說明下,n爲table的長度:
//hash(key)就是上面講的hash方法,對其進行了第一步和第二步處理 public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } /** * * @param hash 索引的位置 * @param key 鍵 * @param value 值 * @param onlyIfAbsent true 表示不要更改現有值 * @param evict false表示table處於建立模式 * @return */ final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //若是table爲null或者長度爲0,則進行初始化 //resize()方法原本是用於擴容,因爲初始化沒有實際分配空間,這裏用該方法進行空間分配,後面會詳細講解該方法 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //注意:這裏用到了前面講解得到key的hash碼的第三步,取模運算,下面的if-else分別是 tab[i] 爲null和不爲null if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null);//tab[i] 爲null,直接將新的key-value插入到計算的索引i位置 else {//tab[i] 不爲null,表示該位置已經有值了 Node<K,V> e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p;//節點key已經有值了,直接用新值覆蓋 //該鏈是紅黑樹 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //該鏈是鏈表 else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); //鏈表長度大於8,轉換成紅黑樹 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } //key已經存在直接覆蓋value if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount;//用做修改和新增快速失敗 if (++size > threshold)//超過最大容量,進行擴容 resize(); afterNodeInsertion(evict); return null; }
①、判斷鍵值對數組 table 是否爲空或爲null,不然執行resize()進行擴容;
②、根據鍵值key計算hash值獲得插入的數組索引i,若是table[i]==null,直接新建節點添加,轉向⑥,若是table[i]不爲空,轉向③;
③、判斷table[i]的首個元素是否和key同樣,若是相同直接覆蓋value,不然轉向④,這裏的相同指的是hashCode以及equals;
④、判斷table[i] 是否爲treeNode,即table[i] 是不是紅黑樹,若是是紅黑樹,則直接在樹中插入鍵值對,不然轉向⑤;
⑤、遍歷table[i],判斷鏈表長度是否大於8,大於8的話把鏈表轉換爲紅黑樹,在紅黑樹中執行插入操做,不然進行鏈表的插入操做;遍歷過程當中若發現key已經存在直接覆蓋value便可;
⑥、插入成功後,判斷實際存在的鍵值對數量size是否超過了最大容量threshold,若是超過,進行擴容。
⑦、若是新插入的key不存在,則返回null,若是新插入的key存在,則返回原key對應的value值(注意新插入的value會覆蓋原value值)
注意1:看第 58,59 行代碼:
if (++size > threshold)//超過最大容量,進行擴容 resize();
這裏有個考點,咱們知道 HashMap 是由數組+鏈表+紅黑樹(JDK1.8)組成,若是在添加元素時,發生衝突,會將衝突的數放在鏈表上,當鏈表長度超過8時,會自動轉換成紅黑樹。
那麼有以下問題:數組上有5個元素,而某個鏈表上有3個元素,問此HashMap的 size 是多大?
咱們分析第58,59 行代碼,很容易知道,只要是調用put() 方法添加元素,那麼就會調用 ++size(這裏有個例外是插入重複key的鍵值對,不會調用,可是重複key元素不會影響size),因此,上面的答案是 7。
注意2:看第 53 、 60 行代碼:
afterNodeAccess(e); afterNodeInsertion(evict);
這裏調用的該方法,實際上是調用了以下實現方法:
void afterNodeAccess(Node<K,V> p) { } void afterNodeInsertion(boolean evict) { }
這都是一個空的方法實現,咱們在這裏能夠不用管,可是在後面介紹 LinkedHashMap 會用到,LinkedHashMap 是繼承的 HashMap,而且重寫了該方法,後面咱們會詳細介紹。
擴容(resize),咱們知道集合是由數組+鏈表+紅黑樹構成,向 HashMap 中插入元素時,若是HashMap 集合的元素已經大於了最大承載容量threshold(capacity * loadFactor),這裏的threshold不是數組的最大長度。那麼必須擴大數組的長度,Java中數組是沒法自動擴容的,咱們採用的方法是用一個更大的數組代替這個小的數組,就比如之前是用小桶裝水,如今小桶裝不下了,咱們使用一個更大的桶。
JDK1.8融入了紅黑樹的機制,比較複雜,這裏咱們先介紹 JDK1.7的擴容源碼,便於理解,而後在介紹JDK1.8的源碼。
//參數 newCapacity 爲新數組的大小 void resize(int newCapacity) { Entry[] oldTable = table;//引用擴容前的 Entry 數組 int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) {//擴容前的數組大小若是已經達到最大(2^30)了 threshold = Integer.MAX_VALUE;///修改閾值爲int的最大值(2^31-1),這樣之後就不會擴容了 return; } Entry[] newTable = new Entry[newCapacity];//初始化一個新的Entry數組 transfer(newTable, initHashSeedAsNeeded(newCapacity));//將數組元素轉移到新數組裏面 table = newTable; threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);//修改閾值 } void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; for (Entry<K,V> e : table) {//遍歷數組 while(null != e) { Entry<K,V> next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } int i = indexFor(e.hash, newCapacity);//從新計算每一個元素在數組中的索引位置 e.next = newTable[i];//標記下一個元素,添加是鏈表頭添加 newTable[i] = e;//將元素放在鏈上 e = next;//訪問下一個 Entry 鏈上的元素 } } }
經過方法咱們能夠看到,JDK1.7中首先是建立一個新的大容量數組,而後依次從新計算原集合全部元素的索引,而後從新賦值。若是數組某個位置發生了hash衝突,使用的是單鏈表的頭插入方法,同一位置的新元素老是放在鏈表的頭部,這樣與原集合鏈表對比,擴容以後的可能就是倒序的鏈表了。
下面咱們在看看JDK1.8的。
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length;//原數組若是爲null,則長度賦值0 int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) {//若是原數組長度大於0 if (oldCap >= MAXIMUM_CAPACITY) {//數組大小若是已經大於等於最大值(2^30) threshold = Integer.MAX_VALUE;//修改閾值爲int的最大值(2^31-1),這樣之後就不會擴容了 return oldTab; } //原數組長度大於等於初始化長度16,而且原數組長度擴大1倍也小於2^30次方 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // 閥值擴大1倍 } else if (oldThr > 0) //舊閥值大於0,則將新容量直接等於就閥值 newCap = oldThr; else {//閥值等於0,oldCap也等於0(集合未進行初始化) newCap = DEFAULT_INITIAL_CAPACITY;//數組長度初始化爲16 newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//閥值等於16*0.75=12 } //計算新的閥值上限 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { //把每一個bucket都移動到新的buckets中 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null;//元數據j位置置爲null,便於垃圾回收 if (e.next == null)//數組沒有下一個引用(不是鏈表) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode)//紅黑樹 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; //原索引 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } //原索引+oldCap else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); //原索引放到bucket裏 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } //原索引+oldCap放到bucket裏 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
該方法分爲兩部分,首先是計算新桶數組的容量 newCap 和新閾值 newThr,而後將原集合的元素從新映射到新集合中。
相比於JDK1.7,1.8使用的是2次冪的擴展(指長度擴爲原來2倍),因此,元素的位置要麼是在原位置,要麼是在原位置再移動2次冪的位置。咱們在擴充HashMap的時候,不須要像JDK1.7的實現那樣從新計算hash,只須要看看原來的hash值新增的那個bit是1仍是0就行了,是0的話索引沒變,是1的話索引變成「原索引+oldCap」。
HashMap 刪除元素首先是要找到 桶的位置,而後若是是鏈表,則進行鏈表遍歷,找到須要刪除的元素後,進行刪除;若是是紅黑樹,也是進行樹的遍歷,找到元素刪除後,進行平衡調節,注意,當紅黑樹的節點數小於 6 時,會轉化成鏈表。
public V remove(Object key) { Node<K,V> e; return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value; } final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) { Node<K,V>[] tab; Node<K,V> p; int n, index; //(n - 1) & hash找到桶的位置 if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) { Node<K,V> node = null, e; K k; V v; //若是鍵的值與鏈表第一個節點相等,則將 node 指向該節點 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) node = p; //若是桶節點存在下一個節點 else if ((e = p.next) != null) { //節點爲紅黑樹 if (p instanceof TreeNode) node = ((TreeNode<K,V>)p).getTreeNode(hash, key);//找到須要刪除的紅黑樹節點 else { do {//遍歷鏈表,找到待刪除的節點 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } //刪除節點,並進行調節紅黑樹平衡 if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { if (node instanceof TreeNode) ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable); else if (node == p) tab[index] = node.next; else p.next = node.next; ++modCount; --size; afterNodeRemoval(node); return node; } } return null; }
注意第 46 行代碼
afterNodeRemoval(node);
這也是爲實現 LinkedHashMap 作準備的,在這裏和上面同樣,是一個空方法實現,能夠不用管。而在 LinkedHashMap 中進行了重寫,用來維護刪除節點後,鏈表的先後關係。
①、經過 key 查找 value
首先經過 key 找到計算索引,找到桶位置,先檢查第一個節點,若是是則返回,若是不是,則遍歷其後面的鏈表或者紅黑樹。其他狀況所有返回 null。
public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { //根據key計算的索引檢查第一個索引 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; //不是第一個節點 if ((e = first.next) != null) { if (first instanceof TreeNode)//遍歷樹查找元素 return ((TreeNode<K,V>)first).getTreeNode(hash, key); do { //遍歷鏈表查找元素 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
②、判斷是否存在給定的 key 或者 value
public boolean containsKey(Object key) { return getNode(hash(key), key) != null; } public boolean containsValue(Object value) { Node<K,V>[] tab; V v; if ((tab = table) != null && size > 0) { //遍歷桶 for (int i = 0; i < tab.length; ++i) { //遍歷桶中的每一個節點元素 for (Node<K,V> e = tab[i]; e != null; e = e.next) { if ((v = e.value) == value || (value != null && value.equals(v))) return true; } } } return false; }
首先構造一個 HashMap 集合:
HashMap<String,Object> map = new HashMap<>(); map.put("A","1"); map.put("B","2"); map.put("C","3");
①、分別獲取 key 集合和 value 集合。
//一、分別獲取key和value的集合 for(String key : map.keySet()){ System.out.println(key); } for(Object value : map.values()){ System.out.println(value); }
②、獲取 key 集合,而後遍歷key集合,根據key分別獲得相應value
//二、獲取key集合,而後遍歷key,根據key獲得 value Set<String> keySet = map.keySet(); for(String str : keySet){ System.out.println(str+"-"+map.get(str)); }
③、獲得 Entry 集合,而後遍歷 Entry
//三、獲得 Entry 集合,而後遍歷 Entry Set<Map.Entry<String,Object>> entrySet = map.entrySet(); for(Map.Entry<String,Object> entry : entrySet){ System.out.println(entry.getKey()+"-"+entry.getValue()); }
④、迭代
//四、迭代 Iterator<Map.Entry<String,Object>> iterator = map.entrySet().iterator(); while(iterator.hasNext()){ Map.Entry<String,Object> mapEntry = iterator.next(); System.out.println(mapEntry.getKey()+"-"+mapEntry.getValue()); }
基本上使用第三種方法是性能最好的,
第一種遍歷方法在咱們只須要 key 集合或者只須要 value 集合時使用;
第二種方法效率很低,不推薦使用;
第四種方法效率也挺好,關鍵是在遍歷的過程當中咱們能夠對集合中的元素進行刪除。
①、基於JDK1.8的HashMap是由數組+鏈表+紅黑樹組成,當鏈表長度超過 8 時會自動轉換成紅黑樹,當紅黑樹節點個數小於 6 時,又會轉化成鏈表。相對於早期版本的 JDK HashMap 實現,新增了紅黑樹做爲底層數據結構,在數據量較大且哈希碰撞較多時,可以極大的增長檢索的效率。
②、容許 key 和 value 都爲 null。key 重複會被覆蓋,value 容許重複。
③、非線程安全
④、無序(遍歷HashMap獲得元素的順序不是按照插入的順序)
參考文檔:
https://docs.oracle.com/javas...
http://www.importnew.com/2038...
https://www.cnblogs.com/nulll...
本系列教程持續更新,能夠微信搜索「 IT可樂 」第一時間閱讀。回覆《電子書》有我爲你們特別篩選的書籍資料