spark的四大核心組件

相對於第一代的大數據生態系統Hadoop中的MapReduce,Spark 不管是在性能仍是在方案的統一性方面,都有着極大的優點。Spark框架包含了多個緊密集成的組件,如圖4所示。位於底層的是Spark Core,其實現了Spark的做業調度、內存管理、容錯、與存儲系統交互等基本功能,並針對彈性分佈式數據集提供了豐富的操做。在Spark Core的基礎上,Spark提供了一系列面向不一樣應用需求
相關文章
相關標籤/搜索