使用哈希表能夠進行很是快速的查找操做。可是,哈希表到底是什麼玩意兒?不少人避而不談,雖然知道常常用到,不少語言的內置數據結構像python
中的字典,java
中的HashMap
,都是基於哈希表實現。但哈希表到底是啥?java
散列(hashing)是電腦科學中一種對資料的處理方法,經過某種特定的函數/算法(稱爲散列函數/算法)將要檢索的項與用來檢索的索引(稱爲散列,或者散列值)關聯起來,生成一種便於搜索的數據結構(稱爲散列表)。也譯爲散列。舊譯哈希(誤覺得是人名而採用了音譯)。它也經常使用做一種資訊安全的實做方法,由一串資料中通過散列算法(Hashing algorithms)計算出來的資料指紋(data fingerprint),常常用來識別檔案與資料是否有被竄改,以保證檔案與資料確實是由原創者所提供。
----Wikipediapython
全部的哈希函數都具備以下一個基本特性:若是兩個散列值是不相同的(根據同一函數),那麼這兩個散列值的原始輸入也是不相同的。這個特性是散列函數具備肯定性的結果,具備這種性質的散列函數稱爲單向散列函數。算法
若關鍵字爲k
,則其值存放在f(k)
的存儲位置上。由此,不需比較即可直接取得所查記錄。稱這個對應關係f爲散列函數,按這個思想創建的表爲散列表。數組
對不一樣的關鍵字可能獲得同一散列地址,即k1≠k2
,而f(k1)=f(k2)
,這種現象稱爲衝突。具備相同函數值的關鍵字對該散列函數來講稱作同義詞。綜上所述,根據散列函數f(k)
和處理衝突的方法將一組關鍵字映射到一個有限的連續的地址集(區間)上,並以關鍵字在地址集中的「像」做爲記錄在表中的存儲位置,這種表便稱爲散列表,這一映射過程稱爲散列造表或散列,所得的存儲位置稱散列地址。安全
若對於關鍵字集合中的任一個關鍵字,經散列函數映象到地址集合中任何一個地址的機率是相等的,則稱此類散列函數爲均勻散列函數(Uniform Hash function
),這就是使關鍵字通過散列函數獲得一個「隨機的地址」,從而減小衝突。數據結構
總的來講,哈希表就是一個具有映射關係的表,你能夠經過映射關係由鍵找到值。有沒有現成的例子?固然有,不過你直接用就沒意思了。app
反正就是要實現f(k)
,即實現key-value
的映射關係。咱們試着本身實現一下:函數
class Map:
def __init__(self):
self.items=[]
def put(self,k,v):
self.items.append((k,v))
def get(self,k):
for key,value in self.items:
if(k==key):
return value
複製代碼
這樣實現的Map
,查找的時間複雜度爲O(n)
。 「這太簡單了,看上去與key
沒什麼關係啊,這不是順序查找麼,逗我呢?」 這只是一個熱身,好吧,下面咱們根據定義,來搞一個有映射函數的:優化
class Map:
def __init__(self):
self.items=[None]*100
def hash(self,a):
return a*1+0
def put(self,k,v):
self.items[hash(k)]=v
def get(self,k):
hashcode=hash(k)
return self.items[hashcode]
複製代碼
「這hash
函數有點簡單啊」 是的,它是簡單,但簡單不妨礙它成爲一個哈希函數,事實上,它叫直接定址法,是一個線性函數: hash(k)= a*k+bspa
「爲啥初始化就指定了100
容量?」 必需要指出的是,這個是必須的。你想經過下標存儲並訪問,對於數組來講,這不可避免。在JDK
源碼裏,你也能夠看到,Java
的HashMap
的初始容量設成了16
。你可能說,你這hash
函數,我只要key
設爲100
以上,這程序就廢了。是啊,它並不完美。這涉及到擴容的事情,稍後再講。
直接定址法的優勢很明顯,就是它不會產生重複的hash
值。但因爲它與鍵值自己有關係,因此當鍵值分佈很散的時候,會浪費大量的存儲空間。因此通常是不會用到直接定址法的。
假如某個hash函數產生了一堆哈希值,而這些哈希值產生了衝突怎麼辦(實際生產環境中常常發生)?在各類哈希表的實現裏,處理衝突是必需的一步。 好比你定義了一個hash
函數: hash(k)=k mod 10 假設key
序列爲:[15,1,24,32,55,64,42,93,82,76]
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
1 | 32 | 93 | 24 | 15 | 76 | ||||
42 | 64 | 55 | |||||||
82 |
一趟下來,衝突的元素有四個,下面有幾個辦法。
開放定址法就是產生衝突以後去尋找下一個空閒的空間。函數定義爲:
其中,hash(key)
是哈希函數,di
是增量序列,i
爲已衝突的次數。
即di=i
,或者其它線性函數。至關於逐個探測存放地址的表,直到查找到一個空單元,而後放置在該單元。
[15,1,24,32,55,64,42,93,82,76]
能夠看到,在55
以前都還沒衝突:
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
1 | 32 | 24 | 15 |
此時插入55
,與15
衝突,應用線性探測,此時i=1
,能夠獲得:
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
1 | 32 | 24 | 15 | 55 |
再插入64
,衝突很多,要取到i=3
:
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
1 | 32 | 24 | 15 | 55 | 64 |
插入42
,i=1
:
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
1 | 32 | 42 | 24 | 15 | 55 | 64 |
插入93
,i=5
:
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
1 | 32 | 42 | 24 | 15 | 55 | 64 | 93 |
插入82
,i=7
:
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
1 | 32 | 42 | 24 | 15 | 55 | 64 | 93 | 82 |
插入76
,i=4
:
0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
---|---|---|---|---|---|---|---|---|---|
76 | 1 | 32 | 42 | 24 | 15 | 55 | 64 | 93 | 82 |
發現越到後面,衝突的愈來愈離譜。因此,表的大小選擇也很重要,此例中選擇了10
做爲表的大小,因此容易產生衝突。通常來說,越是質數,mod取餘就越可能分佈的均勻。
這稱做平方探測法,一個道理,也是查找到一個空單元而後放進去。這裏就不一步一步說明了=。=
di
是一個隨機數序列。 「隨機數?那get的時候咋辦?也是隨機數啊,怎麼確保一致?」 因此說了,是僞隨機數。其實咱們在計算機裏接觸的幾乎都是僞隨機數,只要是由肯定算法生成的,都是僞隨機。只要種子肯定,生成的序列都是同樣的。序列都同樣,那不就能夠了麼=。=這是另一種類型解決衝突的辦法,散列到同一位置的元素,不是繼續往下探測,而是在這個位置是一個鏈表,這些元素則都放到這一個鏈表上。java
的HashMap
就採用的是這個。
若是一次不夠,就再來一次,直到衝突再也不發生。
將哈希表分爲基本表和溢出表兩部分,凡是和基本表發生衝突的元素,一概填入溢出表(注意:在這個方法裏面是把元素分開兩個表來存儲)。
說了這麼一堆,舉個例子,用開放地址法(線性探測):
class Map:
def __init__(self):
self.hash_table=[[None,None]for i in range(11)]
def hash(self,k,i):
h_value=(k+i)%11
if self.hash_table[h_value][0]==k:
return h_value
if self.hash_table[h_value][0]!=None:
i+=1
h_value=self.hash(k,i)
return h_value
def put(self,k,v):
hash_v=self.hash(k,0)
self.hash_table[hash_v][0]=k
self.hash_table[hash_v][1]=v
def get(self,k):
hash_v=self.hash(k,0)
return self.hash_table[hash_v][1]
複製代碼
「能不能不要定死長度?11個徹底不夠用啊」
這是剛纔的問題,因此有了另一個概念,叫作載荷因子(load factor
)。載荷因子的定義爲: α= 已有的元素個數/表的長度
因爲表長是定值, α與「填入表中的元素個數」成正比,因此, α越大,代表填入表中的元素越多,產生衝突的可能性就越大;反之,α越小,代表填入表中的元素越少,產生衝突的可能性就越小。實際上,散列表的平均查找長度是載荷因子 α
的函數,只是不一樣處理衝突的方法有不一樣的函數。
因此當到達必定程度,表的長度是要變的,即resize
=。=像java
的HashMap
,載荷因子被設計爲0.75
;超過0.8
,cpu
的cache missing
會急劇上升。能夠看下這篇討論: www.zhihu.com/question/22…
具體擴容多少,通常選擇擴到已插入元素數量的兩倍,java
也是這麼作的。
接着上面,再升級一下咱們的map
:
class Map:
def __init__(self):
self.capacity=11
self.hash_table=[[None,None]for i in range(self.capacity)]
self.num=0
self.load_factor=0.75
def hash(self,k,i):
h_value=(k+i)%self.capacity
if self.hash_table[h_value][0]==k:
return h_value
if self.hash_table[h_value][0]!=None:
i+=1
h_value=self.hash(k,i)
return h_value
def resize(self):
self.capacity=self.num*2 #擴容到原有元素數量的兩倍
temp=self.hash_table[:]
self.hash_table=[[None,None]for i in range(self.capacity)]
for i in temp:
if(i[0]!=None): #把原來已有的元素存入
hash_v=self.hash(i[0],0)
self.hash_table[hash_v][0]=i[0]
self.hash_table[hash_v][1]=i[1]
def put(self,k,v):
hash_v=self.hash(k,0)
self.hash_table[hash_v][0]=k
self.hash_table[hash_v][1]=v
self.num+=1 #暫不考慮key重複的狀況,具體本身能夠優化
if(self.num/len(self.hash_table)>self.load_factor):# 若是比例大於載荷因子
self.resize()
def get(self,k):
hash_v=self.hash(k,0)
return self.hash_table[hash_v][1]
複製代碼
看上面的函數,能夠看到resize
是一個比較耗時的操做,由於只是原理教學,因此並無什麼奇淫技巧在裏面。能夠去看一下Java
的HashMap
的hash
方法和resize
方法,還有處理衝突時的設計(jdk8
及以後的HashMap
用到了紅黑樹),其中的思路要精妙的多。
關於哈希表,原理的東西都基本差很少了。能夠看到,它本質要解決的是查找時間的問題。若是順序查找的話,時間複雜度爲O(n)
;而哈希表,時間複雜度則爲O(1)
!直接甩了一個次元,這也就是爲何在大量數據存儲查找的時候,哈希表獲得大量應用的緣由。