Spark學習筆記整理 --- 2018-06-15 【Spark架構設計】

基本概念: 在具體講解Spark運行架構之前,需要先了解幾個重要的概念: *  RDD:是彈性分佈式數據集(Resilient Distributed Dataset)的簡稱,是分佈式內存的一個抽象概念,提供了一種高度受限的共享內存模型; *  DAG:是Directed Acyclic Graph(有向無環圖)的簡稱,反映RDD之間的依賴關係; *  Executor:是運行在工作節點(W
相關文章
相關標籤/搜索