spark的執行過程

1、spark應用程序啓動(driver) 2、調用spark context初始化配置和輸入數據 3、spark context啓動DAGSchedule構造DAG圖,切分任務 4、Driver向Cluster Manager請求計算資源 5、Cluster Manger根據Driver的主機地址等信息同志集羣的所有計算節點Worker 6、Worker收到信息,根據Driver的主機地址,向D
相關文章
相關標籤/搜索