大數據Spark企業級實戰版【學習筆記】----Spark技術生態系統之Spark Core

1.1.3 Spark技術生態系統        Spark生態系統如果1-8所示:                Spark Core包含Spark的基本功能,這些功能包括任務調度、內存管理、故障恢復以及存儲系統的交互等,其中幾個重要的概念:RDD、Stage、DAG。Spark Core的核心思想就是將數據集緩存在內存中,並用Lineage機制來進行容錯。 1. Spark Core 1)  
相關文章
相關標籤/搜索