Java LinkedHashMap和HashMap有什麼區別和聯繫?爲何LinkedHashMap會有着更快的迭代速度?LinkedHashSet跟LinkedHashMap有着怎樣的內在聯繫?本文從數據結構和算法層面,結合生動圖解爲讀者一一解答。html
本文github地址java
若是你已看過前面關於HashSet和HashMap,以及TreeSet和TreeMap的講解,必定可以想到本文將要講解的LinkedHashSet和LinkedHashMap其實也是一回事。LinkedHashSet和LinkedHashMap在Java裏也有着相同的實現,前者僅僅是對後者作了一層包裝,也就是說LinkedHashSet裏面有一個LinkedHashMap(適配器模式)。所以本文將重點分析LinkedHashMap。git
LinkedHashMap實現了Map接口,即容許放入key
爲null
的元素,也容許插入value
爲null
的元素。從名字上能夠看出該容器是linked list和HashMap的混合體,也就是說它同時知足HashMap和linked list的某些特性。可將LinkedHashMap看做採用linked list加強的HashMap。程序員
事實上LinkedHashMap是HashMap的直接子類,兩者惟一的區別是LinkedHashMap在HashMap的基礎上,採用雙向鏈表(doubly-linked list)的形式將全部entry
鏈接起來,這樣是爲保證元素的迭代順序跟插入順序相同。上圖給出了LinkedHashMap的結構圖,主體部分跟HashMap徹底同樣,多了header
指向雙向鏈表的頭部(是一個啞元),該雙向鏈表的迭代順序就是entry
的插入順序。github
除了能夠保迭代歷順序,這種結構還有一個好處:迭代LinkedHashMap時不須要像HashMap那樣遍歷整個table
,而只須要直接遍歷header
指向的雙向鏈表便可,也就是說LinkedHashMap的迭代時間就只跟entry
的個數相關,而跟table
的大小無關。算法
有兩個參數能夠影響LinkedHashMap的性能:初始容量(inital capacity)和負載係數(load factor)。初始容量指定了初始table
的大小,負載係數用來指定自動擴容的臨界值。當entry
的數量超過capacity*load_factor
時,容器將自動擴容並從新哈希。對於插入元素較多的場景,將初始容量設大能夠減小從新哈希的次數。markdown
將對象放入到LinkedHashMap或LinkedHashSet中時,有兩個方法須要特別關心:hashCode()
和equals()
。hashCode()
方法決定了對象會被放到哪一個bucket
裏,當多個對象的哈希值衝突時,equals()
方法決定了這些對象是不是「同一個對象」。因此,若是要將自定義的對象放入到LinkedHashMap
或LinkedHashSet
中,須要@OverridehashCode()
和equals()
方法。數據結構
經過以下方式能夠獲得一個跟源Map 迭代順序同樣的LinkedHashMap:多線程
void foo(Map m) { Map copy = new LinkedHashMap(m); ... }
出於性能緣由,LinkedHashMap是非同步的(not synchronized),若是須要在多線程環境使用,須要程序員手動同步;或者經過以下方式將LinkedHashMap包裝成(wrapped)同步的:app
Map m = Collections.synchronizedMap(new LinkedHashMap(...));
get(Object key)
方法根據指定的key
值返回對應的value
。該方法跟HashMap.get()
方法的流程幾乎徹底同樣,讀者可自行參考前文,這裏再也不贅述。
put(K key, V value)
方法是將指定的key, value
對添加到map
裏。該方法首先會對map
作一次查找,看是否包含該元組,若是已經包含則直接返回,查找過程相似於get()
方法;若是沒有找到,則會經過addEntry(int hash, K key, V value, int bucketIndex)
方法插入新的entry
。
注意,這裏的插入有兩重含義:
- 從
table
的角度看,新的entry
須要插入到對應的bucket
裏,當有哈希衝突時,採用頭插法將新的entry
插入到衝突鏈表的頭部。- 從
header
的角度看,新的entry
須要插入到雙向鏈表的尾部。
addEntry()
代碼以下:
// LinkedHashMap.addEntry() void addEntry(int hash, K key, V value, int bucketIndex) { if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length);// 自動擴容,並從新哈希 hash = (null != key) ? hash(key) : 0; bucketIndex = hash & (table.length-1);// hash%table.length } // 1.在衝突鏈表頭部插入新的entry HashMap.Entry<K,V> old = table[bucketIndex]; Entry<K,V> e = new Entry<>(hash, key, value, old); table[bucketIndex] = e; // 2.在雙向鏈表的尾部插入新的entry e.addBefore(header); size++; }
上述代碼中用到了addBefore()
方法將新entry e
插入到雙向鏈表頭引用header
的前面,這樣e
就成爲雙向鏈表中的最後一個元素。addBefore()
的代碼以下:
// LinkedHashMap.Entry.addBefor(),將this插入到existingEntry的前面 private void addBefore(Entry<K,V> existingEntry) { after = existingEntry; before = existingEntry.before; before.after = this; after.before = this; }
上述代碼只是簡單修改相關entry
的引用而已。
remove(Object key)
的做用是刪除key
值對應的entry
,該方法的具體邏輯是在removeEntryForKey(Object key)
裏實現的。removeEntryForKey()
方法會首先找到key
值對應的entry
,而後刪除該entry
(修改鏈表的相應引用)。查找過程跟get()
方法相似。
注意,這裏的刪除也有兩重含義:
- 從
table
的角度看,須要將該entry
從對應的bucket
裏刪除,若是對應的衝突鏈表不空,須要修改衝突鏈表的相應引用。- 從
header
的角度來看,須要將該entry
從雙向鏈表中刪除,同時修改鏈表中前面以及後面元素的相應引用。
removeEntryForKey()
對應的代碼以下:
// LinkedHashMap.removeEntryForKey(),刪除key值對應的entry final Entry<K,V> removeEntryForKey(Object key) { ...... int hash = (key == null) ? 0 : hash(key); int i = indexFor(hash, table.length);// hash&(table.length-1) Entry<K,V> prev = table[i];// 獲得衝突鏈表 Entry<K,V> e = prev; while (e != null) {// 遍歷衝突鏈表 Entry<K,V> next = e.next; Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) {// 找到要刪除的entry modCount++; size--; // 1. 將e從對應bucket的衝突鏈表中刪除 if (prev == e) table[i] = next; else prev.next = next; // 2. 將e從雙向鏈表中刪除 e.before.after = e.after; e.after.before = e.before; return e; } prev = e; e = next; } return e; }
前面已經說過LinkedHashSet是對LinkedHashMap的簡單包裝,對LinkedHashSet的函數調用都會轉換成合適的LinkedHashMap方法,所以LinkedHashSet的實現很是簡單,這裏再也不贅述。
public class LinkedHashSet<E> extends HashSet<E> implements Set<E>, Cloneable, java.io.Serializable { ...... // LinkedHashSet裏面有一個LinkedHashMap public LinkedHashSet(int initialCapacity, float loadFactor) { map = new LinkedHashMap<>(initialCapacity, loadFactor); } ...... public boolean add(E e) {//簡單的方法轉換 return map.put(e, PRESENT)==null; } ...... }