Spark如何在一個SparkContext中提交多個任務

在使用spark處理數據的時候,大多數都是提交一個job執行,而後job內部會根據具體的任務,生成task任務,運行在多個進程中,好比讀取的HDFS文件的數據,spark會加載全部的數據,而後根據block個數生成task數目,多個task運行中不一樣的進程中,是並行的,若是在同一個進程中一個JVM裏面有多個task,那麼多個task也能夠並行,這是常見的使用方式。linux 考慮下面一種場景,在
相關文章
相關標籤/搜索