Spark 基本概念

Spark 基本概念 基本定義如下: RDD(resillient distributed dataset):彈性分佈式數據集。 Task:具體執行任務。Task分爲ShuffleMapTask和ResultTask兩種。ShuffleMapTask和ResultTask分別類似於Hadoop中的Map,Reduce。 Job:用戶提交的作業。一個Job可能由一到多個Task組成。 Stage:J
相關文章
相關標籤/搜索