Spark的基本概念及工作原理

Spark作業的基本概念 -Application:用戶自定義的Spark程序,用戶提交後,Spark爲App分配資源將程序轉換並執行。 -Driver Program:運行Application的main()函數並且創建SparkContext。 -RDD DAG:當RDD遇到Action算子,將之前的所有算子形成一個有向無環圖(DAG)。再在Spark中轉化爲Job,提交到集羣進行執行。一個A
相關文章
相關標籤/搜索