Hadoop生態組件之Spark--第七講

1、什麼是Spark       Spark是一個針對大規模數據處理的快速通用引擎。  類似MapReduce,都進行數據的處理 2、Spark的特點: (1)基於Scala語言、Spark基於內存的計算 (2)快:基於內存 (3)易用:支持Scala、Java、Python (4)兼容性:完全兼容Hadoop 3、Spark體系結構:主從結構 (1)主節點:Master (2)從節點:Worke
相關文章
相關標籤/搜索