spark自定義分區的實現

spark默認是提供了兩種分區器,HashPartitioner和RangePartitioner,可是有的時候不能知足咱們實際的需求,這個時候咱們能夠自定義一個分區器,也很是的簡單.看下面一個demo,把key是偶數的放到一個分區,key是奇數的放到另外一個分區.javascript package spark import org.apache.spark.{Partitioner, Spa
相關文章
相關標籤/搜索