在java編程語言中,最基本的結構就是兩種,一個是數組,另一個是模擬指針(引用),全部的數據結構均可以用這兩個基本結構來構造的,hashmap也不例外。Hashmap其實是一個數組和鏈表的結合體(在數據結構中,通常稱之爲「鏈表散列「),請看下圖(橫排表示數組,縱排表示數組元素【其實是一個鏈表】)。 前端
從圖中咱們能夠看到一個hashmap就是一個數組結構,當新建一個hashmap的時候,就會初始化一個數組。咱們來看看java代碼:
java
/** 編程
* The table, resized as necessary. Length MUST Always be a power of two. 數組
* FIXME 這裏須要注意這句話,至於緣由後面會講到 緩存
*/ 數據結構
transient Entry[] table; 多線程
static class Entry<K,V> implements Map.Entry<K,V> { 編程語言
final K key;
V value;
final int hash;
Entry<K,V> next;
..........
}
上面的Entry就是數組中的元素,它持有一個指向下一個元素的引用,這就構成了鏈表。
當咱們往hashmap中put元素的時候,先根據key的hash值獲得這個元素在數組中的位置(即下標),而後就能夠把這個元素放到對應的位置中了。若是這個元素所在的位子上已經存放有其餘元素了,那麼在同一個位子上的元素將以鏈表的形式存放,新加入的放在鏈頭,最早加入的放在鏈尾。從hashmap中get元素時,首先計算key的hashcode,找到數組中對應位置的某一元素,而後經過key的equals方法在對應位置的鏈表中找到須要的元素。從這裏咱們能夠想象獲得,若是每一個位置上的鏈表只有一個元素,那麼hashmap的get效率將是最高的,可是理想老是美好的,現實老是有困難須要咱們去克服,哈哈~
二、hash算法
咱們能夠看到在hashmap中要找到某個元素,須要根據key的hash值來求得對應數組中的位置。如何計算這個位置就是hash算法。前面說過hashmap的數據結構是數組和鏈表的結合,因此咱們固然但願這個hashmap裏面的元素位置儘可能的分佈均勻些,儘可能使得每一個位置上的元素數量只有一個,那麼當咱們用hash算法求得這個位置的時候,立刻就能夠知道對應位置的元素就是咱們要的,而不用再去遍歷鏈表。
因此咱們首先想到的就是把hashcode對數組長度取模運算,這樣一來,元素的分佈相對來講是比較均勻的。可是,「模」運算的消耗仍是比較大的,能不能找一種更快速,消耗更小的方式那?java中時這樣作的,
static int indexFor(int h, int length) {
return h & (length-1);
}
首先算得key得hashcode值,而後跟數組的長度-1作一次「與」運算(&)。看上去很簡單,其實比較有玄機。好比數組的長度是2的4次方,那麼hashcode就會和2的4次方-1作「與」運算。不少人都有這個疑問,爲何hashmap的數組初始化大小都是2的次方大小時,hashmap的效率最高,我以2的4次方舉例,來解釋一下爲何數組大小爲2的冪時hashmap訪問的性能最高。
看下圖,左邊兩組是數組長度爲16(2的4次方),右邊兩組是數組長度爲15。兩組的hashcode均爲8和9,可是很明顯,當它們和1110「與」的時候,產生了相同的結果,也就是說它們會定位到數組中的同一個位置上去,這就產生了碰撞,8和9會被放到同一個鏈表上,那麼查詢的時候就須要遍歷這個鏈表,獲得8或者9,這樣就下降了查詢的效率。同時,咱們也能夠發現,當數組長度爲15的時候,hashcode的值會與14(1110)進行「與」,那麼最後一位永遠是0,而0001,0011,0101,1001,1011,0111,1101這幾個位置永遠都不能存放元素了,空間浪費至關大,更糟的是這種狀況中,數組可使用的位置比數組長度小了不少,這意味着進一步增長了碰撞的概率,減慢了查詢的效率!
因此說,當數組長度爲2的n次冪的時候,不一樣的key算得得index相同的概率較小,那麼數據在數組上分佈就比較均勻,也就是說碰撞的概率小,相對的,查詢的時候就不用遍歷某個位置上的鏈表,這樣查詢效率也就較高了。
說到這裏,咱們再回頭看一下hashmap中默認的數組大小是多少,查看源代碼能夠得知是16,爲何是16,而不是15,也不是20呢,看到上面annegu的解釋以後咱們就清楚了吧,顯然是由於16是2的整數次冪的緣由,在小數據量的狀況下16比15和20更能減小key之間的碰撞,而加快查詢的效率。
因此,在存儲大容量數據的時候,最好預先指定hashmap的size爲2的整數次冪次方。就算不指定的話,也會以大於且最接近指定值大小的2次冪來初始化的,代碼以下(HashMap的構造方法中):
// Find a power of 2 >= initialCapacity
int capacity = 1;
while (capacity < initialCapacity)
capacity <<= 1;
三、hashmap的resize
當hashmap中的元素愈來愈多的時候,碰撞的概率也就愈來愈高(由於數組的長度是固定的),因此爲了提升查詢的效率,就要對hashmap的數組進行擴容,數組擴容這個操做也會出如今ArrayList中,因此這是一個通用的操做,不少人對它的性能表示過懷疑,不過想一想咱們的「均攤」原理,就釋然了,而在hashmap數組擴容以後,最消耗性能的點就出現了:原數組中的數據必須從新計算其在新數組中的位置,並放進去,這就是resize。
那麼hashmap何時進行擴容呢?當hashmap中的元素個數超過數組大小*loadFactor時,就會進行數組擴容,loadFactor的默認值爲0.75,也就是說,默認狀況下,數組大小爲16,那麼當hashmap中元素個數超過16*0.75=12的時候,就把數組的大小擴展爲2*16=32,即擴大一倍,而後從新計算每一個元素在數組中的位置,而這是一個很是消耗性能的操做,因此若是咱們已經預知hashmap中元素的個數,那麼預設元素的個數可以有效的提升hashmap的性能。好比說,咱們有1000個元素new HashMap(1000), 可是理論上來說new HashMap(1024)更合適,不過上面annegu已經說過,即便是1000,hashmap也自動會將其設置爲1024。 可是new HashMap(1024)還不是更合適的,由於0.75*1000 < 1000, 也就是說爲了讓0.75 * size > 1000, 咱們必須這樣new HashMap(2048)才最合適,既考慮了&的問題,也避免了resize的問題。
四、key的hashcode與equals方法改寫
在第一部分hashmap的數據結構中,annegu就寫了get方法的過程:首先計算key的hashcode,找到數組中對應位置的某一元素,而後經過key的equals方法在對應位置的鏈表中找到須要的元素。因此,hashcode與equals方法對於找到對應元素是兩個關鍵方法。
Hashmap的key能夠是任何類型的對象,例如User這種對象,爲了保證兩個具備相同屬性的user的hashcode相同,咱們就須要改寫hashcode方法,比方把hashcode值的計算與User對象的id關聯起來,那麼只要user對象擁有相同id,那麼他們的hashcode也能保持一致了,這樣就能夠找到在hashmap數組中的位置了。若是這個位置上有多個元素,還須要用key的equals方法在對應位置的鏈表中找到須要的元素,因此只改寫了hashcode方法是不夠的,equals方法也是須要改寫滴~固然啦,按正常思惟邏輯,equals方法通常都會根據實際的業務內容來定義,例如根據user對象的id來判斷兩個user是否相等。
在改寫equals方法的時候,須要知足如下三點:
(1) 自反性:就是說a.equals(a)必須爲true。
(2) 對稱性:就是說a.equals(b)=true的話,b.equals(a)也必須爲true。
(3) 傳遞性:就是說a.equals(b)=true,而且b.equals(c)=true的話,a.equals(c)也必須爲true。
經過改寫key對象的equals和hashcode方法,咱們能夠將任意的業務對象做爲map的key。
HashTable和HashMap區別
第一,繼承不一樣。
public class Hashtable extends Dictionary implements Map
public class HashMap extends AbstractMap implements Map
第二
Hashtable 中的方法是同步的,而HashMap中的方法在缺省狀況下是非同步的。在多線程併發的環境下,能夠直接使用Hashtable,可是要使用HashMap的話就要使用Collections.synchronizedMap()。實現Map同步操做。
第三
Hashtable中,key和value都不容許出現null值。
在HashMap中,null能夠做爲鍵,這樣的鍵只有一個;能夠有一個或多個鍵所對應的值爲null。當get()方法返回null值時,便可以表示 HashMap中沒有該鍵,也能夠表示該鍵所對應的值爲null。所以,在HashMap中不能由get()方法來判斷HashMap中是否存在某個鍵, 而應該用containsKey()方法來判斷。
第四,兩個遍歷方式的內部實現上不一樣。
Hashtable、HashMap都使用了 Iterator。而因爲歷史緣由,Hashtable還使用了Enumeration的方式 。
第五
哈希值的使用不一樣,HashTable直接使用對象的hashCode。而HashMap從新計算hash值。
第六
Hashtable和HashMap它們兩個內部實現方式的數組的初始大小和擴容的方式。HashTable中hash數組默認大小是11,增長的方式是 old*2+1。HashMap中hash數組的默認大小是16,並且必定是2的指數。
LinkedHashMap
LinkedHashMap是HashMap的一個子類,它保留插入的順序,若是須要輸出的順序和輸入時的相同,那麼就選用LinkedHashMap。默認指定排序模式爲插入順序。若是你想構造一個LinkedHashMap,並打算按從近期訪問最少到近期訪問最多的順序(即訪問順序)來保存元素,那麼請使用下面的構造方法構造LinkedHashMap:
public LinkedHashMap(int initialCapacity,
float loadFactor,
boolean accessOrder) {
super(initialCapacity, loadFactor);
this.accessOrder = accessOrder;
}
該哈希映射的迭代順序就是最後訪問其條目的順序,這種映射很適合構建LRU緩存。
Map<String, String> map = new LinkedHashMap<String, String>(16, 0.75f, true);
LRU簡單實現
import
java.util.*;
//擴展一下LinkedHashMap這個類,讓他實現LRU算法
class
LRULinkedHashMap<K,V>
extends
LinkedHashMap<K,V>{
//定義緩存的容量
private
int
capacity;
private
static
final
long
serialVersionUID = 1L;
//帶參數的構造器
LRULinkedHashMap(
int
capacity){
//調用LinkedHashMap的構造器,傳入如下參數
super
(
16
,
0
.75f,
true
);
//傳入指定的緩存最大容量
this
.capacity=capacity;
}
//實現LRU的關鍵方法,若是map裏面的元素個數大於了緩存最大容量,則刪除鏈表的頂端元素
@Override
public
boolean
removeEldestEntry(Map.Entry<K, V> eldest){
System.out.println(eldest.getKey() +
"="
+ eldest.getValue());
return
size()>capacity;
}
}
//測試類
class
Test{
public
static
void
main(String[] args)
throws
Exception{
//指定緩存最大容量爲4
Map<Integer,Integer> map=
new
LRULinkedHashMap<>(
4
);
map.put(
9
,
3
);
map.put(
7
,
4
);
map.put(
5
,
9
);
map.put(
3
,
4
);
map.put(
6
,
6
);
//總共put了5個元素,超過了指定的緩存最大容量
//遍歷結果
for
(Iterator<Map.Entry<Integer,Integer>> it=map.entrySet().iterator();it.hasNext();){
System.out.println(it.next().getKey());
}
}
}
輸出結果以下
9=3
9=3
9=3
9=3
9=3
7
5
3
6
removeEldestEntry方法中始終訪問的是最後一次被訪問的元素。當size大於設定的閾值的時候,最前端的元素被刪除。