Spark內核源碼學習(暫未學完)

1) 回顧 1.1 Spark通用運行流程概述 在submit任務條件是需要指定executo個數,executor-CUP個數,可以提高並行度。 什麼是並行,什麼是併發? 併發:假如有多個任務task,並行是在一個cup中,多個task輪流執行,一個cpu中不可能一起執行,但是我們看到的幾乎是同時執行 並行:多個cpu一起執行不同任務,任務間叫做並行執行
相關文章
相關標籤/搜索