Spark的基本工作流程

原文地址: https://my.oschina.net/134596/blog/3038296 park的應用分爲任務調度和任務執行兩個部分,所有的Spark應用程序都離不開SparkContext和Executor兩部分,Executor負責執行任務,運行Executor的機器稱爲Worker節點,SparkContext由用戶程序啓動,通過資源調度模塊和Executor通信。 具體來說,以S
相關文章
相關標籤/搜索