Spark-RDD-02基本操做詳解

Spark中RDD是一個不可變的分佈式對象集合,每一個RDD都被分爲多個分區,這些分區被分發到集羣的不一樣的節點中進行計算。shell SparkContext是Spark的編程主入口點,能夠被用於在集羣中建立RDDs,在spark-shell中被系統默認建立爲sc。編程 兩種建立RDD的方式:(1)調用SparkContext的parallelize()方法將數據並行化成RDD數組       
相關文章
相關標籤/搜索