最近一直在分析OceanBase的源碼,恰巧碰到了OceanBase的核心開發者的新做《大規模分佈式存儲系統:原理解析與架構實戰》.看完樣章後決定入手,果真物有所值。對於準備學習分佈式的同窗,這是一本不錯的書籍,相對系統,全面的介紹了分佈式的相關技術和項目,基本都是乾貨。還有一半是在介紹OceanBase的內容,對我來講,正是踏破鐵鞋無覓處,接下來會有幾篇專門研究存儲引擎的讀書筆記喲。廢話很少說,轉入正題。python
談存儲,那麼理解存儲的介質的特性顯然很重要,書中談了不少硬件結構,但最重要的結論,都濃縮在存儲介質對比這張表中了。git
磁盤介質對比github
類別 | 每秒讀寫(IOPS)次數 | 每GB價格(元) | 隨機讀取 | 隨機寫入 |
---|---|---|---|---|
內存 | 千萬級 | 150 | 友好 | 友好 |
SSD盤 | 35000 | 20 | 友好 | 寫入放大問題 |
SAS磁盤 | 180 | 3 | 磁盤尋道 | 磁盤尋道 |
SATA磁盤 | 90 | 0.5 | 磁盤尋道 | 磁盤尋道 |
從表中能夠看出,內存的隨機讀寫能力最強,遠超SSD盤和磁盤。可是咱們都知道,內存沒法持久化。如今許多公司在性能要求高的地方都使用了SSD盤,相對SAS和SATA磁盤,隨機讀取速度有了很大的提高。可是對於隨機寫入,存在寫入放大問題。數據庫
寫入放大問題與SSD盤的特性有關,SSD盤不能隨機寫入,只能整塊整塊的寫入。最簡單的例子,好比要寫入一個4KB的數據,最壞的狀況就是,一個塊裏已經沒有乾淨空間了,可是有無效數據能夠擦除,因此主控就把全部的數據讀出來,擦除塊,再加上這個4KB新數據寫回去,這個操做帶來的寫入放大就是: 實際寫4K的數據,形成了整個塊(512KB)的寫入操做,那就是128倍放大。此外,SSD盤的壽命也有寫入次數相關。數據結構
若是使用SSD來做爲存儲引擎的存儲介質,最好從設計上減小或避免隨機寫入,使用順序寫入取而代之。架構
存儲系統的基本功能包括:增、刪、讀、改。其中讀取操做有分爲順序讀取和隨機讀取。app
整體來講,大部分應用使用讀的功能最多,解決讀的性能是存儲系統的重要命題。通常來講。快速查找的思想基本源自二分查找法和哈希查詢。例如關係數據庫中經常使用的B+存儲模型就是使用二分查找的思想,固然,實際實現比二分查找複雜不少。B+存儲模型支持順序掃描。另一類則是基於哈希思想的鍵值模型,這類模型不支持順序掃描,僅支持隨機讀取。分佈式
今天要討論的Bitcask模型是一種日誌型鍵值模型。所謂日誌型,是指它不直接支持隨機寫入,而是像日誌同樣支持追加操做。Bitcask模型將隨機寫入轉化爲順序寫入。有兩個好處:性能
Bitcask中存在3種文件,包括數據文件,索引文件和線索文件(hint file,姑且就叫線索文件吧)。數據文件存儲於磁盤上,包含了原始的數據的鍵值信息;索引文件存在於內存,用於記錄記錄的位置信息,啓動Bitcask時,它會將全部數據的位置信息所有讀入一個內存中的哈希表,也就是索引文件;線索文件(hint file)並非Bitcask的必需文件,它的存在是爲了提供啓動時構建索引文件的速度。學習
Bitcask的數據文件組織以下圖:任意時刻,系統中只有一個數據文件支持寫入,稱爲active data file。其他的數據文件都是隻讀文件,稱爲older data file。
文件中的數據結構很是簡單,是一條一條的數據寫入操做,每一條數據的結構以下:
上面數據項分別爲:後面幾項的crc校驗值,時間戳,key,value,key的大小,value的大小。
數據文件中就是連續一條條上面格式的數據,以下圖:
索引哈希表記錄了所有記錄的主鍵和位置信息,索引哈希表的值包含了:記錄文件的編號,value長度,value的在文件中的位置和時間戳。Bitcask的整體數據結構以下圖:
Bitcask啓動時要重建索引哈希表,若是數據量特別大,則會致使啓動很慢。而線索文件(hint file)則是用來加速啓動時重建哈希表的速度。線索文件(hint file)的記錄與數據文件的格式基本相同,惟一不一樣的是數據文件記錄數據的值,而線索文件(hint file)則是記錄數據的位置。
這樣在啓動的時候就能夠不用讀數據文件,而是讀取線索文件(hint file),一行行重建便可,大大加快了哈希表的重建速度。
上節提到,存儲系統的基本功能包括:增、刪、讀、改。那麼Bitcask中如何實現的呢?
如何增長記錄?
用戶寫入的記錄直接追加到活動文件,所以活動文件會愈來愈大,當到達必定大小時,Bitcask會凍結活動文件,新建一個活動文件用於寫入,而以前的活動文件則變爲了older data file。寫入記錄的同時還要在索引哈希表中添加索引記錄。
如何刪除記錄?
Bitcask不直接刪除記錄,而是新增一條相同key的記錄,把value值設置一個刪除的標記。原有記錄依然存在於數據文件中,而後更新索引哈希表。
如何修改記錄?
Bitcask不支持隨機寫入。由於對於存儲系統的基本功能中的增和改,實際上都是同樣的,都是直接寫入活動數據文件。同時修改索引哈希表中對應記錄的值。(這個時候,實際上數據文件中同一個key值對應了多條記錄,根據時間戳記錄來判斷,以最新的數據爲準。)
如何讀取記錄?
讀取時,首先從索引哈希表中定位到記錄在磁盤中位置,而後經過IO讀取出對應的記錄。
合併(Marge)操做
Bitcask這種只增不減地不斷寫入,必然會是數據文件不斷的膨脹。而其中有許可能是被標記刪除和修改後留下的無用記錄。合併操做就是爲了剔除這部分數據,減少數據文件大小。
merge操做,經過按期將全部older data file中的數據掃描一遍並生成新的data file(沒有包括active data file 是由於它還在不停寫入)。若是同一個Key有多條記錄,則只保留最新的一條。從而去掉數據文件中的冗餘數據。並且進行合併(Marge)操做時,還能夠順帶生成線索文件(hint file)。合併(Marge)操做一般會在數據庫較閒的時候進行,好比凌晨一兩點等。
Bitcask是一個精煉的鍵值存儲模型。採用日誌型的數據結構,只追加不改寫就記錄,提升了隨機寫入的吞吐量,經過創建哈希表來加快查詢速度,按期合併數據文件,並生成線索文件(hint file),提升啓動時重建哈希表的速度。
這是我參考了網上的一個python實現,並增長了部分功能後的代碼:https://github.com/Winnerhust/Code-of-Book/blob/master/Large-Scale-Distributed-Storage-System/bitcask.py
除了增刪讀寫外,主要還實現了: