spark scala 對RDD進行過濾----filter使用方法

現有一個 rdd: RDD [(String, Int)]spa val rdd = sc.parallelize(Seq(("a",1), ("a",2), ("b",2), ("b",3), ("c",1))) 過濾條件邏輯運算符:>, <, == 整數類型數據的過濾 rdd.filter(_._2==2) rdd.filter(_._2>2) rdd.filter(_._2<2) rdd.f
相關文章
相關標籤/搜索