在介紹HashMap以前,先介紹一下哈希表的概念。html
哈希表(Hash table,也叫作散列表),是根據關鍵碼值(Key Value)而直接進行訪問的數據結構。也就是說,它經過把關鍵碼值映射到表中一個位置來訪問記錄,以加快查找的速度。這個映射函數叫作散列函數,存放記錄的數組叫作散列表。java
記錄的存儲位置 = f(關鍵字)面試
這裏的對應關係 f 稱爲散列函數,又稱爲哈希(Hash函數)函數,採用散列技術將記錄存儲在一塊連續的存儲空間中,這塊連續存儲空間稱爲散列表或哈希表(Hash Table)。算法
哈希表就是把key經過一個固定的算法函數即將所謂的哈希函數轉換成一個整型數字,而後就將改數字對數組的長度進行取餘,取餘結果就看成數組的下標,將value存儲在以該數字爲下標的數組空間裏。而當使用哈希表進行查詢的時候,就是再次使用哈希函數將key轉換爲對應的數組下標,並定位到該空間獲取value,如此一來,就能夠充分利用到數組的定位性能進行數據定位。數組
數組的特色是:尋址容易、插入和刪除困難安全
鏈表的特色是:尋址困難、插入和刪除容易數據結構
那麼咱們能不能綜合二者的特性,作出一種尋址容易,插入刪除也容易的數據結構?答案是確定的,這就是咱們提到的哈希表,哈希表有多種不一樣的實現方法,接下來解釋的是最經常使用的一種方法----拉鍊法,能夠理解爲「鏈表的數組」:併發
左邊很明顯是個數組,數組的每一個成員包括一個指針,指向一個鏈表的頭,固然這個鏈表可能爲空,也可能元素不少。咱們根據元素的一些特徵把元素分配到不一樣的鏈表中去,也是根據這些特徵,找到正確的鏈表,再從鏈表中找出這個元素。app
以前講了ArrayList、LinkedList,就這二者而言,反映的是兩種思想:dom
(1)ArrayList以數組形式實現,順序插入、查找快,插入、刪除慢
(2)LinkedList以鏈表形式實現,順序插入、查找較慢,插入、刪除較快
那麼是否有一種數據結構可以結合上面兩種的優勢呢?答案就是HashMap
HashMap是一種很是常見、方便和有用的集合,是一種鍵值對(K-V)形式的存儲結構。
關 注 點 | 結 論 |
HashMap是否容許空 | Key和Value都容許爲空 |
HashMap是否容許重複數據 | Key重複會覆蓋、Value容許重複 |
HashMap是否有序 | 無序,特別說明這個無序指的是遍歷HashMap的時候,獲得的元素的順序基本不多是put的順序 |
HashMap是否線程安全 | 非線程安全 |
HashMap的存儲結構如上圖所示(JDK1.8之後,當鏈表長度大於8的時候,鏈表會變爲紅黑樹)。
看一下HashMap的存儲單元Entry的源碼結構:
static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Node<K,V> next; ... }
HashMap是採用Entry數組來存儲key-value對,每個鍵值對組成了一個Entry實體,Entry類其實是一個單向的鏈表結構,它裏面包含next指針、key的hash值、value、key,其中next指針能夠鏈接下一個Entry實體,HashMap是以此來解決hash衝突的問題的,由於HashMap是按照key的hash值來計算Entry在HashMap中存儲的位置的,若是hash值相同,而key不相等,那麼就用鏈表來解決這種hash衝突。
HashMap() //無參構造方法 HashMap(int initialCapacity) //指定初始容量的構造方法 HashMap(int initialCapacity, float loadFactor) //指定初始容量和負載因子 HashMap(Map<? extends K,? extends V> m) //指定集合,轉化爲HashMap
void clear() Object clone() boolean containsKey(Object key) boolean containsValue(Object value) Set<Entry<K, V>> entrySet() V get(Object key) boolean isEmpty() Set<K> keySet() V put(K key, V value) void putAll(Map<? extends K, ? extends V> map) V remove(Object key) int size() Collection<V> values()
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
從簽名能夠看出:
(1)HashMap繼承於AbstractMap類,實現了Map接口。Map是「key-value鍵值對」接口,AbstractMap實現了「鍵值對」的通用函數接口。
(2)HashMap是經過「拉鍊法」實現的哈希表,它裏面包含有幾個重要的成員變量:table、size、threshold、loadFactor、modCount。
table:是Entry[]類型的數組,Entry其實是一個單向鏈表。哈希表的「key-value鍵值對」都是存儲在Entry數組中的
size:HashMap的大小,也是HashMap保存的鍵值對的數量
threshold:HashMap的閥值,用於判斷是否須要調整HashMap的容量。threshold的值 = 容量 * 加載因子,當HashMap中存儲數據的數量達到threshold時,就須要將HashMap的容量加倍
loadFactor:加載因子
modCount:用來實現fail-fast機制的
public V put(K key, V value) { if (table == EMPTY_TABLE) { //是否初始化 inflateTable(threshold); } if (key == null) //放置在0號位置 return putForNullKey(value); int hash = hash(key); //計算hash值 int i = indexFor(hash, table.length); //計算在Entry[]中的存儲位置 for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(hash, key, value, i); //添加到Map中 return null; }
在該方法中,添加鍵值對時,首先進行的是table是否初始化的判斷,若是沒有進行初始化(分配空間也就是Entry[]數組的長度爲0)。而後進行key是否爲null的判斷,若是key == null,放置在Entry[]的0號位置。而後計算Entry[]數組的存儲位置,判斷該位置上是否已經有元素,若是已經有元素存在,則遍歷該Entry[]數組上的單鏈表,判斷key是否存在,若是key已經存在,則用新的value值,替換舊的value值,並將舊的value值返回;若是key不存在於HashMap中,程序將對應的key-value值,生成Entry[]實體,添加到HashMap中的Entry[]數組中。
注意:JDK1.6和之前的版本,初始化時的容量是16,在JDK1.7之後,採用懶加載的方式,到真正放入元素的時候再初始化長度,長度也是16(使用無參構造器時)。
/* * hash hash值 * key 鍵值 * value value值 * bucketIndex Entry[]數組中的存儲索引 * / void addEntry(int hash, K key, V value, int bucketIndex) { if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); //擴容操做,將數據元素從新計算位置後放入newTable中,鏈表的順序與以前的順序相反 hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); } void createEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); size++; }
添加Entry[]的操做,在添加以前先進行容量的判斷,若是當前容量達到了閥值,而且須要存儲到Entry[]數組中,先進行擴容操做,擴充的容量爲table長度的兩倍,從新計算hash值和數組存儲的位置,擴容後的鏈表順序與擴容前的鏈表順序相反,而後將新添加的Entry實體存放到當前Entry[]位置鏈表的頭部。
注意:在JDK1.8以前,新插入的元素都是放在了鏈表的頭部位置,可是這種操做在高併發的環境下容易致使死鎖,因此在JDK1.8及之後,新插入的元素都放在了鏈表的尾部。
public V get(Object key) { if (key == null) //返回table[0] 的value值 return getForNullKey(); Entry<K,V> entry = getEntry(key); return null == entry ? null : entry.getValue(); } final Entry<K,V> getEntry(Object key) { if (size == 0) { return null; } int hash = (key == null) ? 0 : hash(key); for (Entry<K,V> e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } return null; }
在get方法中,首先計算hash值,而後調用indexFor方法獲得該key在table中的存儲位置,獲得該位置的單鏈表,遍歷列表找到key和指定key內容相等的Entry,返回Entry.value值。
public V remove(Object key) { Entry<K,V> e = removeEntryForKey(key); return (e == null ? null : e.value); } final Entry<K,V> removeEntryForKey(Object key) { if (size == 0) { return null; } int hash = (key == null) ? 0 : hash(key); int i = indexFor(hash, table.length); Entry<K,V> prev = table[i]; Entry<K,V> e = prev; while (e != null) { Entry<K,V> next = e.next; Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { modCount++; size--; if (prev == e) table[i] = next; else prev.next = next; e.recordRemoval(this); return e; } prev = e; e = next; } return e; }
刪除操做,先計算指定key的hash值,而後計算出table中的存儲位置,判斷當前位置是否存在Entry實體,若是沒有,直接返回,若當前位置有Entry實體存在,則開始遍歷列表。定義了三個Entry引用,分別爲pre、e、next。在循環遍歷的過程當中,首先判斷pre和e是否相等,若相等則代表table當前位置只有一個元素,直接將table[i] = next = null。若造成了 pre -> e ->next 的鏈接關係,判斷e的key是否和指定的key相等,若相等則讓pre -> next,e 失去引用。
上述源碼皆是JDK1.7的源碼。
在Jdk1.8中HashMap的實現方式作了一些改變,可是基本思想仍是沒有變得,只是在一些地方作了優化,下面來看一下這些改變的地方,數據結構的存儲由數組+鏈表的方式,變化爲數組+鏈表+紅黑樹的存儲方式,在性能上進一步獲得提高。
當鏈表長度大於8的時候,鏈表將會轉化爲紅黑樹存儲,對極端狀況下的HashMap性能大大提高。
public V put(K key, V value) { //調用putVal()方法完成 return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //判斷table是否初始化,不然初始化操做 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //計算存儲的索引位置,若是沒有元素,直接賦值 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; //節點若已經存在,執行賦值操做 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //判斷鏈表是不是紅黑樹 else if (p instanceof TreeNode) //紅黑樹對象操做 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { //爲鏈表, for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); //鏈表長度8,將鏈表轉化爲紅黑樹存儲 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } //key存在,直接覆蓋 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } //記錄修改次數 ++modCount; //判斷是否須要擴容 if (++size > threshold) resize(); //空操做 afterNodeInsertion(evict); return null; }
一個很小的細節:
transient Node<K,V>[] table;
看到table用了transient修飾,也就是說table裏面的內容全都不會被序列化,不知道你們有沒有想過這麼寫的緣由?
在我看來,這麼寫是很是必要的。由於HashMap是基於HashCode的,HashCode做爲Object的方法,是native的:
public native int hashCode();
這意味着的是:HashCode和底層實現相關,不一樣的虛擬機可能有不一樣的HashCode算法。再進一步說得明白些就是,可能同一個Key在虛擬機A上的HashCode=1,在虛擬機B上的HashCode=2,在虛擬機C上的HashCode=3。
這就有問題了,Java自誕生以來,就以跨平臺性做爲最大賣點,好了,若是table不被transient修飾,在虛擬機A上能夠用的程序到虛擬機B上能夠用的程序就不能用了,失去了跨平臺性,由於:
一、Key在虛擬機A上的HashCode=100,連在table[4]上
二、Key在虛擬機B上的HashCode=101,這樣,就去table[5]上找Key,明顯找不到
整個代碼就出問題了。所以,爲了不這一點,Java採起了重寫本身序列化table的方法,在writeObject選擇將key和value追加到序列化的文件最後面:
private void writeObject(java.io.ObjectOutputStream s) throws IOException { Iterator<Map.Entry<K,V>> i = (size > 0) ? entrySet0().iterator() : null; // Write out the threshold, loadfactor, and any hidden stuff s.defaultWriteObject(); // Write out number of buckets s.writeInt(table.length); // Write out size (number of Mappings) s.writeInt(size); // Write out keys and values (alternating) if (i != null) { while (i.hasNext()) { Map.Entry<K,V> e = i.next(); s.writeObject(e.getKey()); s.writeObject(e.getValue()); } } }
而在readObject的時候重構HashMap數據結構:
private void readObject(java.io.ObjectInputStream s) throws IOException, ClassNotFoundException { // Read in the threshold, loadfactor, and any hidden stuff s.defaultReadObject(); // Read in number of buckets and allocate the bucket array; int numBuckets = s.readInt(); table = new Entry[numBuckets]; init(); // Give subclass a chance to do its thing. // Read in size (number of Mappings) int size = s.readInt(); // Read the keys and values, and put the mappings in the HashMap for (int i=0; i<size; i++) { K key = (K) s.readObject(); V value = (V) s.readObject(); putForCreate(key, value); } }
一種麻煩的方式,但卻保證了跨平臺性。
這個例子也告訴了咱們:儘管使用的虛擬機大多數狀況下都是HotSpot,可是也不能對其它虛擬機無論不顧,有跨平臺的思想是一件好事。
HashMap和Hashtable是一組類似的鍵值對集合,它們的區別也是面試常被問的問題之一,我這裏簡單總結一下HashMap和Hashtable的區別:
一、Hashtable是線程安全的,Hashtable全部對外提供的方法都使用了synchronized,也就是同步,而HashMap則是線程非安全的
二、Hashtable不容許空的value,空的value將致使空指針異常,而HashMap則無所謂,沒有這方面的限制
三、上面兩個缺點是最主要的區別,另一個區別可有可無,我只是提一下,就是兩個的rehash算法不一樣,Hashtable的是:
private int hash(Object k) { // hashSeed will be zero if alternative hashing is disabled. return hashSeed ^ k.hashCode(); }
這個hashSeed是使用sun.misc.Hashing類的randomHashSeed方法產生的。HashMap的rehash算法上面看過了,也就是:
static int hash(int h) { // This function ensures that hashCodes that differ only by // constant multiples at each bit position have a bounded // number of collisions (approximately 8 at default load factor). h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); }
HashMap爲了存取高效,要儘可能較少碰撞,就是要儘可能把數據分配均勻,每一個鏈表長度大體相同,這個實現就在把數據存到哪一個鏈表中的算法,這個算法實際就是取模,hash%length,計算機中直接求餘效率不如位移運算,源碼中作了優化hash&(length-1),hash%length==hash&(length-1)的前提是length是2的n次方;爲何這樣能均勻分佈減小碰撞呢?2的n次方實際就是1後面n個0,2的n次方-1 實際就是n個1:
例如長度爲9時候,3&(9-1)=0 2&(9-1)=0 ,都在0上,碰撞了;
例如長度爲8時候,3&(8-1)=3 2&(8-1)=2 ,不一樣位置上,不碰撞;
其實就是按位「與」的時候,每一位都能 &1 ,也就是和1111……1111111進行與運算
0000 0011 3
& 0000 1000 8
= 0000 0000 0
0000 0010 2
& 0000 1000 8
= 0000 0000 0
----------------------------------------------------------------------------
0000 0011 3
& 0000 0111 7
= 0000 0011 3
0000 0010 2
& 0000 0111 7
= 0000 0010 2
固然若是不考慮效率直接求餘便可(就不須要要求長度必須是2的n次方了);
總結:
(1)爲了更高的效率(位移運算比取餘速度快,效率高)
(2)爲了更好的利用空間,減小重複率,好比說:當數組長度爲15的時候,hashcode的值會與14(1110)進行「與」,那麼最後一位永遠是0,而0001,0011,0101,1001,1011,0111,1101這幾個位置永遠都不能存放元素了,空間浪費至關大,更糟的是這種狀況中,數組可使用的位置比數組長度小了不少,這意味着進一步增長了碰撞的概率,減慢了查詢的效率!
答案是不會的,HashMap的tableSizeFor方法作了處理,能保證n永遠都是2次冪。
/** * Returns a power of two size for the given target capacity. */ static final int tableSizeFor(int cap) { //cap-1後,n的二進制最右一位確定和cap的最右一位不一樣,即一個爲0,一個爲1,例如cap=17(00010001),n=cap-1=16(00010000) int n = cap - 1; //n = (00010000 | 00001000) = 00011000 n |= n >>> 1; //n = (00011000 | 00000110) = 00011110 n |= n >>> 2; //n = (00011110 | 00000001) = 00011111 n |= n >>> 4; //n = (00011111 | 00000000) = 00011111 n |= n >>> 8; //n = (00011111 | 00000000) = 00011111 n |= n >>> 16; //n = 00011111 = 31 //n = 31 + 1 = 32, 即最終的cap = 32 = 2 的 (n=5)次方 return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
總結:能夠確保capacity爲大於或等於cap的最接近cap的二次冪,好比cap=13,則capacity=16;cap=16,capacity=16;cap=17,capacity=32。
參考:https://www.cnblogs.com/xrq730/p/5030920.html