02-RDD與spark核心概念名詞

Spark RDD 非常基本的說明,下面一張圖就能夠有基本的理解: Spark RDD基本說明 1、Spark的核心概念是RDD (resilient distributed dataset,彈性分佈式數據集),指的是一個只讀的,可分區的分佈式數據集,這個數據集的全部或部分可以緩存在內存中,在多次計算間重用。 2、RDD在抽象上來說是一種元素集合,包含了數據。它是被分區的,分爲多個分區,每個分區分
相關文章
相關標籤/搜索