spark中算子詳解:aggregateByKey

經過scala集合以並行化方式建立一個RDD web scala> val pairRdd = sc.parallelize(List(("cat",2),("cat",5),("mouse",4),("cat",12),("dog",12),("mouse",2)),2) pairRdd 這個RDD有兩個區,一個區中存放的是: bash ("cat",2),("cat",5),("mouse",
相關文章
相關標籤/搜索