Hadoop如何工作? HDFS案例研究

Apache Hadoop軟件庫是一個框架,該框架允許使用簡單的編程模型跨計算機集羣對大型數據集進行分佈式處理。 它旨在從單個服務器擴展到數千臺機器,每臺機器都提供本地計算和存儲。 庫本身不用於依靠硬件來提供高可用性,而是被設計用來檢測和處理應用程序層的故障,因此可以在計算機集羣的頂部提供高可用性服務,每臺計算機都容易出現故障。 Hadoop庫包含兩個主要組件HDFS和MapReduce,在本文中
相關文章
相關標籤/搜索