HashMap HashTable 深刻理解

在java編程語言中,最基本的結構就是兩種,一個是數組,另一個是模擬指針(引用),全部的數據結構均可以用這兩個基本結構來構造的,hashmap也不例外。Hashmap其實是一個數組和鏈表的結合體(在數據結構中,通常稱之爲「鏈表散列「),請看下圖(橫排表示數組,縱排表示數組元素【其實是一個鏈表】)。 前端

從圖中咱們能夠看到一個hashmap就是一個數組結構,當新建一個hashmap的時候,就會初始化一個數組。咱們來看看java代碼: 
java

Java代碼  收藏代碼算法

  1. /** 編程

  2.      * The table, resized as necessary. Length MUST Always be a power of two. 數組

  3.      *  FIXME 這裏須要注意這句話,至於緣由後面會講到 緩存

  4.      */  數據結構

  5.     transient Entry[] table;  多線程

Java代碼  收藏代碼併發

  1. static class Entry<K,V> implements Map.Entry<K,V> {  編程語言

  2.         final K key;  

  3.         V value;  

  4.         final int hash;  

  5.         Entry<K,V> next;  

  6. ..........  

  7. }  

        上面的Entry就是數組中的元素,它持有一個指向下一個元素的引用,這就構成了鏈表。 
         當咱們往hashmap中put元素的時候,先根據key的hash值獲得這個元素在數組中的位置(即下標),而後就能夠把這個元素放到對應的位置中了。若是這個元素所在的位子上已經存放有其餘元素了,那麼在同一個位子上的元素將以鏈表的形式存放,新加入的放在鏈頭,最早加入的放在鏈尾。從hashmap中get元素時,首先計算key的hashcode,找到數組中對應位置的某一元素,而後經過key的equals方法在對應位置的鏈表中找到須要的元素。從這裏咱們能夠想象獲得,若是每一個位置上的鏈表只有一個元素,那麼hashmap的get效率將是最高的,可是理想老是美好的,現實老是有困難須要咱們去克服,哈哈~ 
二、hash算法 
咱們能夠看到在hashmap中要找到某個元素,須要根據key的hash值來求得對應數組中的位置。如何計算這個位置就是hash算法。前面說過hashmap的數據結構是數組和鏈表的結合,因此咱們固然但願這個hashmap裏面的元素位置儘可能的分佈均勻些,儘可能使得每一個位置上的元素數量只有一個,那麼當咱們用hash算法求得這個位置的時候,立刻就能夠知道對應位置的元素就是咱們要的,而不用再去遍歷鏈表。 

因此咱們首先想到的就是把hashcode對數組長度取模運算,這樣一來,元素的分佈相對來講是比較均勻的。可是,「模」運算的消耗仍是比較大的,能不能找一種更快速,消耗更小的方式那?java中時這樣作的,
 

Java代碼  收藏代碼

  1. static int indexFor(int h, int length) {  

  2.        return h & (length-1);  

  3.    }  



首先算得key得hashcode值,而後跟數組的長度-1作一次「與」運算(&)。看上去很簡單,其實比較有玄機。好比數組的長度是2的4次方,那麼hashcode就會和2的4次方-1作「與」運算。不少人都有這個疑問,爲何hashmap的數組初始化大小都是2的次方大小時,hashmap的效率最高,我以2的4次方舉例,來解釋一下爲何數組大小爲2的冪時hashmap訪問的性能最高。 
         看下圖,左邊兩組是數組長度爲16(2的4次方),右邊兩組是數組長度爲15。兩組的hashcode均爲8和9,可是很明顯,當它們和1110「與」的時候,產生了相同的結果,也就是說它們會定位到數組中的同一個位置上去,這就產生了碰撞,8和9會被放到同一個鏈表上,那麼查詢的時候就須要遍歷這個鏈表,獲得8或者9,這樣就下降了查詢的效率。同時,咱們也能夠發現,當數組長度爲15的時候,hashcode的值會與14(1110)進行「與」,那麼最後一位永遠是0,而0001,0011,0101,1001,1011,0111,1101這幾個位置永遠都不能存放元素了,空間浪費至關大,更糟的是這種狀況中,數組可使用的位置比數組長度小了不少,這意味着進一步增長了碰撞的概率,減慢了查詢的效率!
 
 
          因此說,當數組長度爲2的n次冪的時候,不一樣的key算得得index相同的概率較小,那麼數據在數組上分佈就比較均勻,也就是說碰撞的概率小,相對的,查詢的時候就不用遍歷某個位置上的鏈表,這樣查詢效率也就較高了。 
          說到這裏,咱們再回頭看一下hashmap中默認的數組大小是多少,查看源代碼能夠得知是16,爲何是16,而不是15,也不是20呢,看到上面annegu的解釋以後咱們就清楚了吧,顯然是由於16是2的整數次冪的緣由,在小數據量的狀況下16比15和20更能減小key之間的碰撞,而加快查詢的效率。 
因此,在存儲大容量數據的時候,最好預先指定hashmap的size爲2的整數次冪次方。就算不指定的話,也會以大於且最接近指定值大小的2次冪來初始化的,代碼以下(HashMap的構造方法中):
 

Java代碼  收藏代碼

  1. // Find a power of 2 >= initialCapacity  

  2.         int capacity = 1;  

  3.         while (capacity < initialCapacity)   

  4.             capacity <<= 1;  

三、hashmap的resize 
       當hashmap中的元素愈來愈多的時候,碰撞的概率也就愈來愈高(由於數組的長度是固定的),因此爲了提升查詢的效率,就要對hashmap的數組進行擴容,數組擴容這個操做也會出如今ArrayList中,因此這是一個通用的操做,不少人對它的性能表示過懷疑,不過想一想咱們的「均攤」原理,就釋然了,而在hashmap數組擴容以後,最消耗性能的點就出現了:原數組中的數據必須從新計算其在新數組中的位置,並放進去,這就是resize。 

         那麼hashmap何時進行擴容呢?當hashmap中的元素個數超過數組大小*loadFactor時,就會進行數組擴容,loadFactor的默認值爲0.75,也就是說,默認狀況下,數組大小爲16,那麼當hashmap中元素個數超過16*0.75=12的時候,就把數組的大小擴展爲2*16=32,即擴大一倍,而後從新計算每一個元素在數組中的位置,而這是一個很是消耗性能的操做,因此若是咱們已經預知hashmap中元素的個數,那麼預設元素的個數可以有效的提升hashmap的性能。好比說,咱們有1000個元素new HashMap(1000), 可是理論上來說new HashMap(1024)更合適,不過上面annegu已經說過,即便是1000,hashmap也自動會將其設置爲1024。 可是new HashMap(1024)還不是更合適的,由於0.75*1000 < 1000, 也就是說爲了讓0.75 * size > 1000, 咱們必須這樣new HashMap(2048)才最合適,既考慮了&的問題,也避免了resize的問題。 
四、key的hashcode與equals方法改寫 
在第一部分hashmap的數據結構中,annegu就寫了get方法的過程:首先計算key的hashcode,找到數組中對應位置的某一元素,而後經過key的equals方法在對應位置的鏈表中找到須要的元素。因此,hashcode與equals方法對於找到對應元素是兩個關鍵方法。 
Hashmap的key能夠是任何類型的對象,例如User這種對象,爲了保證兩個具備相同屬性的user的hashcode相同,咱們就須要改寫hashcode方法,比方把hashcode值的計算與User對象的id關聯起來,那麼只要user對象擁有相同id,那麼他們的hashcode也能保持一致了,這樣就能夠找到在hashmap數組中的位置了。若是這個位置上有多個元素,還須要用key的equals方法在對應位置的鏈表中找到須要的元素,因此只改寫了hashcode方法是不夠的,equals方法也是須要改寫滴~固然啦,按正常思惟邏輯,equals方法通常都會根據實際的業務內容來定義,例如根據user對象的id來判斷兩個user是否相等。 
在改寫equals方法的時候,須要知足如下三點: 
(1) 自反性:就是說a.equals(a)必須爲true。 
(2) 對稱性:就是說a.equals(b)=true的話,b.equals(a)也必須爲true。 
(3) 傳遞性:就是說a.equals(b)=true,而且b.equals(c)=true的話,a.equals(c)也必須爲true。 
經過改寫key對象的equals和hashcode方法,咱們能夠將任意的業務對象做爲map的key。
 


HashTable和HashMap區別

第一,繼承不一樣。

public class Hashtable extends Dictionary implements Map
public class HashMap  extends AbstractMap implements Map

第二

Hashtable 中的方法是同步的,而HashMap中的方法在缺省狀況下是非同步的。在多線程併發的環境下,能夠直接使用Hashtable,可是要使用HashMap的話就要使用Collections.synchronizedMap()。實現Map同步操做。

第三

Hashtable中,key和value都不容許出現null值。

在HashMap中,null能夠做爲鍵,這樣的鍵只有一個;能夠有一個或多個鍵所對應的值爲null。當get()方法返回null值時,便可以表示 HashMap中沒有該鍵,也能夠表示該鍵所對應的值爲null。所以,在HashMap中不能由get()方法來判斷HashMap中是否存在某個鍵, 而應該用containsKey()方法來判斷。

第四,兩個遍歷方式的內部實現上不一樣。

Hashtable、HashMap都使用了 Iterator。而因爲歷史緣由,Hashtable還使用了Enumeration的方式 。

第五

哈希值的使用不一樣,HashTable直接使用對象的hashCode。而HashMap從新計算hash值。

第六

Hashtable和HashMap它們兩個內部實現方式的數組的初始大小和擴容的方式。HashTable中hash數組默認大小是11,增長的方式是 old*2+1。HashMap中hash數組的默認大小是16,並且必定是2的指數。 

 LinkedHashMap

LinkedHashMap是HashMap的一個子類,它保留插入的順序,若是須要輸出的順序和輸入時的相同,那麼就選用LinkedHashMap。默認指定排序模式爲插入順序。若是你想構造一個LinkedHashMap,並打算按從近期訪問最少到近期訪問最多的順序(即訪問順序)來保存元素,那麼請使用下面的構造方法構造LinkedHashMap:

  1. public LinkedHashMap(int initialCapacity,  

  2.          float loadFactor,  

  3.                      boolean accessOrder) {  

  4.     super(initialCapacity, loadFactor);  

  5.     this.accessOrder = accessOrder;  

  6. }  

該哈希映射的迭代順序就是最後訪問其條目的順序,這種映射很適合構建LRU緩存。

Map<String, String> map = new LinkedHashMap<String, String>(160.75f, true);

LRU簡單實現

import java.util.*; 
//擴展一下LinkedHashMap這個類,讓他實現LRU算法 
class LRULinkedHashMap<K,V>  extends LinkedHashMap<K,V>{ 
     //定義緩存的容量 
     private int capacity; 
     private static final long serialVersionUID = 1L; 
     //帶參數的構造器    
     LRULinkedHashMap( int capacity){ 
         //調用LinkedHashMap的構造器,傳入如下參數 
         super ( 16 , 0 .75f, true ); 
         //傳入指定的緩存最大容量 
         this .capacity=capacity; 
    
     //實現LRU的關鍵方法,若是map裏面的元素個數大於了緩存最大容量,則刪除鏈表的頂端元素 
     @Override 
     public boolean removeEldestEntry(Map.Entry<K, V> eldest){  
         System.out.println(eldest.getKey() +  "=" + eldest.getValue());   
         return size()>capacity; 
     }   
//測試類 
class Test{ 
public static void main(String[] args)  throws Exception{ 
   
     //指定緩存最大容量爲4 
     Map<Integer,Integer> map= new LRULinkedHashMap<>( 4 ); 
     map.put( 9 , 3 ); 
     map.put( 7 , 4 ); 
     map.put( 5 , 9 ); 
     map.put( 3 , 4 ); 
     map.put( 6 , 6 ); 
     //總共put了5個元素,超過了指定的緩存最大容量 
     //遍歷結果 
         for (Iterator<Map.Entry<Integer,Integer>> it=map.entrySet().iterator();it.hasNext();){ 
             System.out.println(it.next().getKey()); 
        
    

}

輸出結果以下

9=3
9=3
9=3
9=3
9=3
7
5
3
6

removeEldestEntry方法中始終訪問的是最後一次被訪問的元素。當size大於設定的閾值的時候,最前端的元素被刪除。

相關文章
相關標籤/搜索