spark任務執行流程

●spark任務執行流程 四個步驟 1.構建DAG(調用RDD上的方法) 2.DAGScheduler將DAG切分Stage(切分的依據是shuffle),將Stage生成的Task一TaskSet的形式給TaskScheduler 3.TaskScheduler調度Task(Driver端根據資源情況將Task調度到相應的Exector中) 4.Exetor接受Task,然後將Task丟到線程池
相關文章
相關標籤/搜索