Spark的基本工作流程(未)

爲什麼80%的碼農都做不了架構師?>>>    Spark的應用分爲任務調度和任務執行兩個部分,所有的Spark應用程序都離不開SparkContext和Executor兩部分,Executor負責執行任務,運行Executor的機器稱爲Worker節點,SparkContext由用戶程序啓動,通過資源調度模塊和Executor通信。 具體來說,以SparkContext爲程序運行的總入口,在Sp
相關文章
相關標籤/搜索