spark原理解析和spark core

spark原理解析 解析一:resilient distributed dataset (RDD) resilient distributed dataset (RDD):彈性分佈式數據集,有容錯機制可並行執行。java 分佈式即體如今每一個rdd分多個partition,每一個partition在執行時爲一個task,會被master分配到某一個worker執行器(Executor)的某一個co
相關文章
相關標籤/搜索