哈希算法的定義和原理很是簡單,基本上一句話就能夠歸納了。將任意長度的二進制值串映射爲固定長度的二進制值串,而經過原始數據映射以後獲得的二進制值串就是哈希值算法
可是,要想設計一個優秀的哈希算法並不容易,根據個人經驗,我總結了須要知足的幾點要求:數據庫
咱們分別對「今天我來說哈希算法」和「jiajia」這兩個文本,計算 MD5 哈希值,獲得兩串看起來毫無規律的字符串(MD5 的哈希值是 128 位的 Bit 長度,爲了方便表示,我把它們轉化成了 16 進制編碼)。能夠看出來,不管要哈希的文本有多長、多短,經過 MD5 哈希以後,獲得的哈希值的長度都是相同的,並且獲得的哈希值看起來像一堆隨機數,徹底沒有規律。後端
MD5(" 今天我來說哈希算法 ") = bb4767201ad42c74e650c1b6c03d78fa
MD5("jiajia") = cd611a31ea969b908932d44d126d195b
複製代碼
這兩個文本只有一個感嘆號的區別。若是用 MD5 哈希算法分別計算它們的哈希值,儘管只有一字之差,獲得的哈希值也是徹底不一樣的。緩存
MD5(" 我今天講哈希算法!") = 425f0d5a917188d2c3c3dc85b5e4f2cb
MD5(" 我今天講哈希算法 ") = a1fb91ac128e6aa37fe42c663971ac3d
複製代碼
哈希算法的應用很是很是多,最多見的七個,分別是安全加密、惟一標識、數據校驗、散列函數、負載均衡、數據分片、分佈式存儲。安全
說到哈希算法的應用,最早想到的應該就是安全加密。最經常使用於加密的哈希算法是MD5(MD5 Message-Digest Algorithm,MD5 消息摘要算法)和SHA(Secure Hash Algorithm,安全散列算法)。bash
除了這兩個以外,固然還有不少其餘加密算法,好比DES(Data Encryption Standard,數據加密標準)、AES(Advanced Encryption Standard,高級加密標準)。服務器
前面我講到的哈希算法四點要求,對用於加密的哈希算法來講,有兩點格外重要。第一點是很難根據哈希值反向推導出原始數據,第二點是散列衝突的機率要很小。網絡
這裏就基於組合數學中一個很是基礎的理論,鴿巢原理(也叫抽屜原理)。這個原理自己很簡單,它是說,若是有 10 個鴿巢,有 11 只鴿子,那確定有 1 個鴿巢中的鴿子數量多於 1 個,換句話說就是,確定有 2 只鴿子在 1 個鴿巢內。負載均衡
有了鴿巢原理的鋪墊以後,咱們再來看,爲何哈希算法沒法作到零衝突?分佈式
咱們知道,哈希算法產生的哈希值的長度是固定且有限的。好比前面舉的 MD5 的例子,哈希值是固定的 128 位二進制串,能表示的數據是有限的,最多能表示 2^128 個數據,而咱們要哈希的數據是無窮的。基於鴿巢原理,若是咱們對 2^128+1 個數據求哈希值,就必然會存在哈希值相同的狀況。這裏你應該能想到,通常狀況下,哈希值越長的哈希算法,散列衝突的機率越低。
舉一個例子。若是要在海量的圖庫中,搜索一張圖是否存在,咱們不能單純地用圖片的元信息(好比圖片名稱)來比對,由於有可能存在名稱相同但圖片內容不一樣,或者名稱不一樣圖片內容相同的狀況。那咱們該如何搜索呢?
咱們知道,任何文件在計算中均可以表示成二進制碼串,因此,比較笨的辦法就是,拿要查找的圖片的二進制碼串與圖庫中全部圖片的二進制碼串一一比對。若是相同,則說明圖片在圖庫中存在。可是,每一個圖片小則幾十 KB、大則幾 MB,轉化成二進制是一個很是長的串,比對起來很是耗時。有沒有比較快的方法呢?
咱們能夠給每個圖片取一個惟一標識,或者說信息摘要。好比,咱們能夠從圖片的二進制碼串開頭取 100 個字節,從中間取 100 個字節,從最後再取 100 個字節,而後將這 300 個字節放到一塊,經過哈希算法(好比 MD5),獲得一個哈希字符串,用它做爲圖片的惟一標識。經過這個惟一標識來斷定圖片是否在圖庫中,這樣就能夠減小不少工做量。
咱們知道,BT 下載的原理是基於 P2P 協議的。咱們從多個機器上並行下載一個 2GB 的電影,這個電影文件可能會被分割成不少文件塊(好比能夠分紅 100 塊,每塊大約 20MB)。等全部的文件塊都下載完成以後,再組裝成一個完整的電影文件就好了。
咱們知道,網絡傳輸是不安全的,下載的文件塊有多是被宿主機器惡意修改過的,又或者下載過程當中出現了錯誤,因此下載的文件塊可能不是完整的。若是咱們沒有能力檢測這種惡意修改或者文件下載出錯,就會致使最終合併後的電影沒法觀看,甚至致使電腦中毒。如今的問題是,如何來校驗文件塊的安全、正確、完整呢?
咱們經過哈希算法,對 100 個文件塊分別取哈希值,而且保存在種子文件中.咱們在前面講過,哈希算法有一個特色,對數據很敏感。只要文件塊的內容有一丁點兒的改變,最後計算出的哈希值就會徹底不一樣。因此,當文件塊下載完成以後,咱們能夠經過相同的哈希算法,對下載好的文件塊逐一求哈希值,而後跟種子文件中保存的哈希值比對。若是不一樣,說明這個文件塊不完整或者被篡改了,須要再從新從其餘宿主機器上下載這個文件塊。
前面講了不少哈希算法的應用,實際上,散列函數也是哈希算法的一種應用。
咱們前兩節講到,散列函數是設計一個散列表的關鍵。它直接決定了散列衝突的機率和散列表的性能。不過,相對哈希算法的其餘應用,散列函數對於散列算法衝突的要求要低不少。即使出現個別散列衝突,只要不是過於嚴重,咱們均可以經過開放尋址法或者鏈表法解決。
不只如此,散列函數對於散列算法計算獲得的值,是否能反向解密也並不關心。散列函數中用到的散列算法,更加關注散列後的值是否能平均分佈,也就是,一組數據是否能均勻地散列在各個槽中。除此以外,散列函數執行的快慢,也會影響散列表的性能,因此,散列函數用的散列算法通常都比較簡單,比較追求效率。
負載均衡算法有不少,好比輪詢、隨機、加權輪詢等。那如何才能實現一個會話粘滯的負載均衡算法呢?也就是說,咱們須要在同一個客戶端上,在一次會話中的全部請求都路由到同一個服務器上。
最直接的方法就是,維護一張映射關係表,這張表的內容是客戶端 IP 地址或者會話 ID 與服務器編號的映射關係。客戶端發出的每次請求,都要先在映射表中查找應該路由到的服務器編號,而後再請求編號對應的服務器。這種方法簡單直觀,但也有幾個弊端:
若是藉助哈希算法,這些問題均可以很是完美地解決。咱們能夠經過哈希算法,對客戶端 IP 地址或者會話 ID 計算哈希值,將取得的哈希值與服務器列表的大小進行取模運算,最終獲得的值就是應該被路由到的服務器編號。 這樣,咱們就能夠把同一個 IP 過來的全部請求,都路由到同一個後端服務器上。
假如咱們有 1T 的日誌文件,這裏面記錄了用戶的搜索關鍵詞,咱們想要快速統計出每一個關鍵詞被搜索的次數,該怎麼作呢?
咱們來分析一下。這個問題有兩個難點,
針對這兩個難點,咱們能夠先對數據進行分片,而後採用多臺機器處理的方法,來提升處理速度。具體的思路是這樣的:爲了提升處理的速度,咱們用 n 臺機器並行處理。咱們從搜索記錄的日誌文件中,依次讀出每一個搜索關鍵詞,而且經過哈希函數計算哈希值,而後再跟 n 取模,最終獲得的值,就是應該被分配到的機器編號。
這樣,哈希值相同的搜索關鍵詞就被分配到了同一個機器上。也就是說,同一個搜索關鍵詞會被分配到同一個機器上。每一個機器會分別計算關鍵詞出現的次數,最後合併起來就是最終的結果。
假設如今咱們的圖庫中有 1 億張圖片,很顯然,在單臺機器上構建散列表是行不通的。由於單臺機器的內存有限,而 1 億張圖片構建散列表顯然遠遠超過了單臺機器的內存上限。
咱們一樣能夠對數據進行分片,而後採用多機處理。咱們準備 n 臺機器,讓每臺機器只維護某一部分圖片對應的散列表。咱們每次從圖庫中讀取一個圖片,計算惟一標識,而後與機器個數 n 求餘取模,獲得的值就對應要分配的機器編號,而後將這個圖片的惟一標識和圖片路徑發往對應的機器構建散列表。
當咱們要判斷一個圖片是否在圖庫中的時候,咱們經過一樣的哈希算法,計算這個圖片的惟一標識,而後與機器個數 n 求餘取模。假設獲得的值是 k,那就去編號 k 的機器構建的散列表中查找。
如今,咱們來估算一下,給這 1 億張圖片構建散列表大約須要多少臺機器。
散列表中每一個數據單元包含兩個信息,哈希值和圖片文件的路徑。假設咱們經過 MD5 來計算哈希值,那長度就是 128 比特,也就是 16 字節。文件路徑長度的上限是 256 字節,咱們能夠假設平均長度是 128 字節。若是咱們用鏈表法來解決衝突,那還須要存儲指針,指針只佔用 8 字節。因此,散列表中每一個數據單元就佔用 152 字節(這裏只是估算,並不許確)。
假設一臺機器的內存大小爲 2GB,散列表的裝載因子爲 0.75,那一臺機器能夠給大約 1000 萬(2GB*0.75/152)張圖片構建散列表。因此,若是要對 1 億張圖片構建索引,須要大約十幾臺機器。在工程中,這種估算仍是很重要的,能讓咱們事先對須要投入的資源、資金有個大概的瞭解,能更好地評估解決方案的可行性。
如今互聯網面對的都是海量的數據、海量的用戶。咱們爲了提升數據的讀取、寫入能力,通常都採用分佈式的方式來存儲數據,好比分佈式緩存。咱們有海量的數據須要緩存,因此一個緩存機器確定是不夠的。因而,咱們就須要將數據分佈在多臺機器上。
該如何決定將哪一個數據放到哪一個機器上呢?咱們能夠借用前面數據分片的思想,即經過哈希算法對數據取哈希值,而後對機器個數取模,這個最終值就是應該存儲的緩存機器編號。
可是,若是數據增多,原來的 10 個機器已經沒法承受了,咱們就須要擴容了,好比擴到 11 個機器,這時候麻煩就來了。由於,這裏並非簡單地加個機器就能夠了。
原來的數據是經過與 10 來取模的。好比 13 這個數據,存儲在編號爲 3 這臺機器上。可是新加了一臺機器中,咱們對數據按照 11 取模,原來 13 這個數據就被分配到 2 號這臺機器上了。
所以,全部的數據都要從新計算哈希值,而後從新搬移到正確的機器上。這樣就至關於,緩存中的數據一會兒就都失效了。全部的數據請求都會穿透緩存,直接去請求數據庫。這樣就可能發生雪崩效應,壓垮數據庫。
因此,咱們須要一種方法,使得在新加入一個機器後,並不須要作大量的數據搬移。這時候,一致性哈希算法就要登場了。
假設咱們有 k 個機器,數據的哈希值的範圍是 [0, MAX]。咱們將整個範圍劃分紅 m 個小區間(m 遠大於 k),每一個機器負責 m/k 個小區間。當有新機器加入的時候,咱們就將某幾個小區間的數據,從原來的機器中搬移到新的機器中。這樣,既不用所有從新哈希、搬移數據,也保持了各個機器上數據數量的均衡。