從 RAID 到 Hadoop Hdfs 『大數據存儲的進化史』

咱們都知道如今大數據存儲用的基本都是 Hadoop Hdfs ,但在 Hadoop 誕生以前,咱們都是如何存儲大量數據的呢?此次咱們不聊技術架構什麼的,而是從技術演化的角度來看看 Hadoop Hdfs。node

咱們先來思考兩個問題。服務器

  • 在 Hdfs 出現之前,計算機是經過什麼手段來存儲「大數據」 的呢?
  • 爲何會有 Hadoop Hdfs 出現呢?

在 Hadoop Hdfs 出現之前,計算機是經過什麼手段來存儲「大數據」

要知道,存儲大量數據有三個最重要的指標,那就是速度,容量,容錯性。速度和容量的重要性毋庸置疑,若是容量不夠大,或者讀取的速度不夠快,那麼海量數據存儲也就無從談起了。而磁盤又是計算機中很容易損壞的零件,當磁盤損壞的時候怎麼辦?聽任數據的丟失嗎,那可不行,這就有了容錯性的需求。架構

在沒有分佈式存儲的時代,單個磁盤容量不夠怎麼辦?加磁盤唄。磁盤容易壞怎麼辦,同時用其餘磁盤備份唄。就這樣,獨立磁盤冗餘陣列( Redundant Array of Independent Disks ),簡稱 RAID,誕生了。
併發

在 2000 年之前,磁盤仍是很珍貴的資源,不像如今,磁盤是 PC 機中最廉價的部件。一開始 RAID 技術是爲了將多個廉價的容量較小的磁盤組合起來充當一個大磁盤以節約成本,但後來人們發現這項技術也能夠用在單臺機器磁盤擴容上了,因而 RAID 技術開始被普遍使用。框架

RAID 技術將多個磁盤組合成一個邏輯扇區,對計算機而言,它會將 RAID 看成一個磁盤來處理。使用 RAID 的好處有:加強數據集成度,加強容錯功能,增長處理量或容量。分佈式

另外 RAID 也有分爲多個檔次,標準的分法,分別是 RAID0 , RAID1 , RAID2 ,RAID3 ,RAID4 ,RAID5 , RAID6 ,每一個檔次都有對應的優缺點。這裏就不詳細介紹,這些 RAID 等級的不一樣主要是對 上述說到的三個數據存儲要素(速度,容量,容錯性)的不一樣取捨,各有各的應用場景。咱們從上述的三個指標來看 RAID 技術。oop

  • 速度: RAID經過在多個磁盤上同時存儲和讀取數據來大幅提升存儲系統的數據吞吐量。在RAID中,可讓不少磁盤驅動器同時傳輸數據,而這些磁盤驅動器在邏輯上又是一個磁盤驅動器,因此使用RAID能夠達到單個磁盤驅動器幾倍、幾十倍甚至上百倍的速率。
  • 容量: 能夠將多個磁盤鏈接起來,對比之前的單個磁盤存儲,RAID 將存儲的量級拔高了一個臺階。但依舊有其侷限性,由於 RAID 始終是放在單臺機器上,機器的磁盤卡槽不可能無限增長,磁盤也不可能一直增大。
  • 容錯性: 不一樣等級的 RAID 使用不一樣的數據冗餘策略,保證數據的容錯性。好比最簡單的 RAID1 就是數據在寫入磁盤時,將一份數據同時寫入兩塊磁盤,這樣任何一塊磁盤損壞都不會致使數據丟失,而插入一塊新磁盤就能夠經過複製數據的方式自動修復,具備極高的可靠性。

爲何會有 Hadoop Hdfs 出現

最直接是緣由是 Google 三篇大數據論文的發表,這直接致使了 Hadoop 的問世。大數據

但更深層的緣由其實仍是由於傳統的但節點磁盤容量達到了極限,即使是用上述的 RAID 技術,但單個臺服務器的容量始終有一個邊界值。並且隨着互聯網的普及,在 2000 年後,數據的積累呈指數式增加,這時候單臺服務器顯然已經放不下這海量的數據了。可是就像 RAID 的改革思想同樣,既然單臺服務器不夠,那咱們就加服務器唄。設計

最先是 Google ,他們在本身的系統上實現了 Google File System(GFS) 這麼一個分佈式存儲系統,並在 03 年的時候將它的實現論文發表了出來。然後 Doug Cutting 和 Mike Cafarella 在這三篇論文的基礎上開發出了 Hadoop。3d

但要將多臺服務器聯合在一塊兒進行分佈式存儲,顯然不是那麼容易。Hadoop1.0 的時候,Hdfs 仍是有一些隱患的。舉個例子,用分佈式進行數據存儲,那就須要一個來記錄元數據的服務器,也就是記錄數據存儲位置的服務器。Hadoop1.0 時候的 Hdfs 是用一個 namenode 管理元數據的,但顯然,只有一個 namenode 來存儲元數據有極大的風險,那就是 namenode 的可靠性沒法保證,一旦這個 namenode 掛掉,整個集羣就完蛋了。

好在這些問題及時獲得修復,Hadoop2.0 橫空出世,解決了大部分的問,好比上面說到的 NameNode 單點故障問題,解決方式就是多引入一臺 NameNode 作同步備份,一個 NameNode 出問題時另外一個跳出來扛。升級事後,Hadoop Hdfs 這纔算是坐穩了大數據存儲王者的寶座。

在這裏咱們就先不說 Hadoop Hdfs 的架構如何,依舊是從上面說到的大數據存儲的三個指標速度,容量,容錯性這幾個方面來看 Hadoop Hdfs。

  • 速度: 速度方面的優點源於 Hdfs 合理的設計理念。它默認用到 Hdfs 處理的是大的數據(TB,PB 級的數據),而且摒棄了傳統文件系統中的 Update 操做,只有 Append 操做。在這個基礎上,Hdfs 將一個文件分割成若干個塊(Block),每一個塊分佈在不一樣的機器中。。和 RAID 利用多個磁盤併發 IO 提升速度同樣,每次操做一個文件的時候,其實是多個機器在併發讀取,這樣無疑是進一步提升讀取速度。
  • 容量: 容量這個問題自沒必要說,理論上是能夠無限制得擴容。但實際上因爲它的元數據存儲在一臺 namenode 中,因此它的大小仍是會收到元數據存儲的這個限制。不過在 Hadoop2.0 後,在機器條件容許的狀況下,一個 Hdfs 支撐起 PB 級別的存儲仍是綽綽有餘的。
  • 容錯性: 在容錯性這個方面,從之前到如今基本都是經過數據冗餘來實現的。只不過數據冗餘的一些策略會根據不一樣的應用場景而作出一些改變。因爲 Hadoop 自己就是假設部署在多臺廉價機器上,因此它會傾向於將存儲數據的節點看成不可靠的節點。出於這個因素,Hdfs 的默認冗餘備份數是 3份 ,就是說當你向 Hdfs 寫入一份數據的時候,同時會在其餘三臺機器上也寫入相同的內容。

咱們能夠發現,其實 Hadoop Hdfs 和 RAID 在思想上是有一些類似之處的。都是經過水平拓展,好比 RAID 水平拓展磁盤,Hadoop Hdfs 則是水平拓展機器。

鐵打的營盤流水的兵。數據就是那些兵,大數據計算框架,好比 Spark,Hive 是將軍。而營盤就是 Hadoop Hdfs 了。兵進進出出,將軍換了一個又一個,惟獨營盤不會變,Hadoop Hdfs 無疑是大數據體系中最基礎也是最重要的那一環。

這裏給出一個有意思的問題: 當下一次互聯網革命到來,數據又呈指數增加的時候,數據存儲的模式會怎樣演化呢?會是簡單的增長集羣嗎,比方說讓多個 hdfs 集羣相互連通?歡迎在評論中寫下你的思考。

相關文章
相關標籤/搜索