Spark groupbykey和cogroup使用示例

groupByKey groupByKey([numTasks])是數據分組操做,在一個由(K,V)對組成的數據集上調用,返回一個(K,Seq[V])對的數據集。 val rdd0 = sc.parallelize(Array((1,1), (1,2) , (1,3) , (2,1) , (2,2) , (2,3)), 3) val rdd1 = rdd0.groupByKey() rdd1.co
相關文章
相關標籤/搜索