HBase 系列(二)—— HBase 系統架構及數據結構

1、基本概念

一個典型的 Hbase Table 表以下:html

1.1 Row Key (行鍵)

Row Key 是用來檢索記錄的主鍵。想要訪問 HBase Table 中的數據,只有如下三種方式:git

  • 經過指定的 Row Key 進行訪問;github

  • 經過 Row Key 的 range 進行訪問,即訪問指定範圍內的行;數據庫

  • 進行全表掃描。apache

Row Key 能夠是任意字符串,存儲時數據按照 Row Key 的字典序進行排序。這裏須要注意如下兩點:緩存

  • 由於字典序對 Int 排序的結果是 1,10,100,11,12,13,14,15,16,17,18,19,2,20,21,…,9,91,92,93,94,95,96,97,98,99。若是你使用整型的字符串做爲行鍵,那麼爲了保持整型的天然序,行鍵必須用 0 做左填充。服務器

  • 行的一次讀寫操做時原子性的 (不論一次讀寫多少列)。數據結構

1.2 Column Family(列族)

HBase 表中的每一個列,都歸屬於某個列族。列族是表的 Schema 的一部分,因此列族須要在建立表時進行定義。列族的全部列都以列族名做爲前綴,例如 courses:historycourses:math 都屬於 courses 這個列族。架構

1.3 Column Qualifier (列限定符)

列限定符,你能夠理解爲是具體的列名,例如 courses:historycourses:math 都屬於 courses 這個列族,它們的列限定符分別是 historymath。須要注意的是列限定符不是表 Schema 的一部分,你能夠在插入數據的過程當中動態建立列。負載均衡

1.4 Column(列)

HBase 中的列由列族和列限定符組成,它們由 :(冒號) 進行分隔,即一個完整的列名應該表述爲 列族名 :列限定符

1.5 Cell

Cell 是行,列族和列限定符的組合,幷包含值和時間戳。你能夠等價理解爲關係型數據庫中由指定行和指定列肯定的一個單元格,但不一樣的是 HBase 中的一個單元格是由多個版本的數據組成的,每一個版本的數據用時間戳進行區分。

1.6 Timestamp(時間戳)

HBase 中經過 row keycolumn 肯定的爲一個存儲單元稱爲 Cell。每一個 Cell 都保存着同一份數據的多個版本。版本經過時間戳來索引,時間戳的類型是 64 位整型,時間戳能夠由 HBase 在數據寫入時自動賦值,也能夠由客戶顯式指定。每一個 Cell 中,不一樣版本的數據按照時間戳倒序排列,即最新的數據排在最前面。

2、存儲結構

2.1 Regions

HBase Table 中的全部行按照 Row Key 的字典序排列。HBase Tables 經過行鍵的範圍 (row key range) 被水平切分紅多個 Region, 一個 Region 包含了在 start key 和 end key 之間的全部行。

每一個表一開始只有一個 Region,隨着數據不斷增長,Region 會不斷增大,當增大到一個閥值的時候,Region 就會等分爲兩個新的 Region。當 Table 中的行不斷增多,就會有愈來愈多的 Region

Region 是 HBase 中分佈式存儲和負載均衡的最小單元。這意味着不一樣的 Region 能夠分佈在不一樣的 Region Server 上。但一個 Region 是不會拆分到多個 Server 上的。

2.2 Region Server

Region Server 運行在 HDFS 的 DataNode 上。它具備如下組件:

  • WAL(Write Ahead Log,預寫日誌):用於存儲還沒有進持久化存儲的數據記錄,以便在發生故障時進行恢復。
  • BlockCache:讀緩存。它將頻繁讀取的數據存儲在內存中,若是存儲不足,它將按照 最近最少使用原則 清除多餘的數據。
  • MemStore:寫緩存。它存儲還沒有寫入磁盤的新數據,並會在數據寫入磁盤以前對其進行排序。每一個 Region 上的每一個列族都有一個 MemStore。
  • HFile :將行數據按照 Key\Values 的形式存儲在文件系統上。

Region Server 存取一個子表時,會建立一個 Region 對象,而後對錶的每一個列族建立一個 Store 實例,每一個 Store 會有 0 個或多個 StoreFile 與之對應,每一個 StoreFile 則對應一個 HFile,HFile 就是實際存儲在 HDFS 上的文件。

3、Hbase系統架構

3.1 系統架構

HBase 系統遵循 Master/Salve 架構,由三種不一樣類型的組件組成:

Zookeeper

  1. 保證任什麼時候候,集羣中只有一個 Master;

  2. 存貯全部 Region 的尋址入口;

  3. 實時監控 Region Server 的狀態,將 Region Server 的上線和下線信息實時通知給 Master;

  4. 存儲 HBase 的 Schema,包括有哪些 Table,每一個 Table 有哪些 Column Family 等信息。

Master

  1. 爲 Region Server 分配 Region ;

  2. 負責 Region Server 的負載均衡 ;

  3. 發現失效的 Region Server 並從新分配其上的 Region;

  4. GFS 上的垃圾文件回收;

  5. 處理 Schema 的更新請求。

Region Server

  1. Region Server 負責維護 Master 分配給它的 Region ,並處理髮送到 Region 上的 IO 請求;

  2. Region Server 負責切分在運行過程當中變得過大的 Region。

3.2 組件間的協做

HBase 使用 ZooKeeper 做爲分佈式協調服務來維護集羣中的服務器狀態。 Zookeeper 負責維護可用服務列表,並提供服務故障通知等服務:

  • 每一個 Region Server 都會在 ZooKeeper 上建立一個臨時節點,Master 經過 Zookeeper 的 Watcher 機制對節點進行監控,從而能夠發現新加入的 Region Server 或故障退出的 Region Server;

  • 全部 Masters 會競爭性地在 Zookeeper 上建立同一個臨時節點,因爲 Zookeeper 只能有一個同名節點,因此必然只有一個 Master 可以建立成功,此時該 Master 就是主 Master,主 Master 會按期向 Zookeeper 發送心跳。備用 Masters 則經過 Watcher 機制對主 HMaster 所在節點進行監聽;

  • 若是主 Master 未能定時發送心跳,則其持有的 Zookeeper 會話會過時,相應的臨時節點也會被刪除,這會觸發定義在該節點上的 Watcher 事件,使得備用的 Master Servers 獲得通知。全部備用的 Master Servers 在接到通知後,會再次去競爭性地建立臨時節點,完成主 Master 的選舉。

4、數據的讀寫流程簡述

4.1 寫入數據的流程

  1. Client 向 Region Server 提交寫請求;

  2. Region Server 找到目標 Region;

  3. Region 檢查數據是否與 Schema 一致;

  4. 若是客戶端沒有指定版本,則獲取當前系統時間做爲數據版本;

  5. 將更新寫入 WAL Log;

  6. 將更新寫入 Memstore;

  7. 判斷 Memstore 存儲是否已滿,若是存儲已滿則須要 flush 爲 Store Hfile 文件。

更爲詳細寫入流程能夠參考:HBase - 數據寫入流程解析

4.2 讀取數據的流程

如下是客戶端首次讀寫 HBase 上數據的流程:

  1. 客戶端從 Zookeeper 獲取 META 表所在的 Region Server;

  2. 客戶端訪問 META 表所在的 Region Server,從 META 表中查詢到訪問行鍵所在的 Region Server,以後客戶端將緩存這些信息以及 META 表的位置;

  3. 客戶端從行鍵所在的 Region Server 上獲取數據。

若是再次讀取,客戶端將從緩存中獲取行鍵所在的 Region Server。這樣客戶端就不須要再次查詢 META 表,除非 Region 移動致使緩存失效,這樣的話,則將會從新查詢並更新緩存。

注:META 表是 HBase 中一張特殊的表,它保存了全部 Region 的位置信息,META 表本身的位置信息則存儲在 ZooKeeper 上。

更爲詳細讀取數據流程參考:

HBase 原理-數據讀取流程解析

HBase 原理-遲到的‘數據讀取流程部分細節

參考資料

本篇文章內容主要參考自官方文檔和如下兩篇博客,圖片也主要引用自如下兩篇博客:

官方文檔:

更多大數據系列文章能夠參見 GitHub 開源項目大數據入門指南

相關文章
相關標籤/搜索