Spark大數據計算引擎介紹

本文內容參考《Spark與Hadoop大數據分析》[美]文卡特·安卡姆 著;《大數據架構詳解 從數據獲取到深度學習》 朱潔 羅華霖 著。 大數據生態的兩個主要部分是Hadoop軟件框架和Spark內存級計算引擎。Hadoop包含四個項目:Hadoop common,HDFS,YARN和MapReduce。 HDFS用於存儲數據,HDFS文件被劃分成區塊分佈在集羣上; 用於管理集羣資源(CPU和內存
相關文章
相關標籤/搜索