關於spark

術語總是難以理解的,因爲它取決於所處的上下文。在很多情況下,你可能習慣於「將Job提交給一個cluster」,但是對於spark而言卻是提交了一個driver程序。 也就是說,對於Job,spark有它自己的定義,如下: A parallel computation consisting of multiple tasks that gets spawned in response to a Sp
相關文章
相關標籤/搜索