《Spark與Hadoop大數據分析》——3.2 學習Spark的核心概念

3.2 學習Spark的核心概念 在本節,我們要了解 Spark 的核心概念。Spark 提供的主要抽象是彈性分佈式數據集(Resilient Distributed Dataset,RDD)。因此,我們要了解 RDD 是什麼,以及提供內存級性能和容錯的 RDD 中包含的運算。但是,首先我們要學習使用 Spark 的方法。 3.2.1 使用 Spark 的方法 使用 Spark 有兩種方法,即 S
相關文章
相關標籤/搜索