Spark技術架構,概念及運行過程

Spark技術架構 Spark的基本概念 1 Application 2 Job 3 Stage和DAGSchedule 4 Task和TaskSchedule 5 BlockManager 6 寬依賴與窄依賴 運行過程 1 Standalone 2 yarn cluster 1.Spark技術架構 Spark分佈式內存計算平臺採用的是Master-Slave架構,集羣中含有Master進程的節點
相關文章
相關標籤/搜索