spark的四大核心組件

       相對於第一代的大數據生態系統Hadoop中的MapReduce,Spark 無論是在性能還是在方案的統一性方面,都有着極大的優勢。Spark框架包含了多個緊密集成的組件,如圖4所示。位於底層的是Spark Core,其實現了Spark的作業調度、內存管理、容錯、與存儲系統交互等基本功能,並針對彈性分佈式數據集提供了豐富的操作。在Spark Core的基礎上,Spark提供了一系列面向
相關文章
相關標籤/搜索