Spark DataFrame pivot()實現分組、透視、求和

問題:sql         對A列和B列進行分組,而後在C列上進行透視操做並對D列數據進行求和apache 實現功能以下:app 實現方式:性能       Spark中語法爲:df.groupBy(「A」, 「B」).pivot(「C」).sum(「D」),顯然這種語法格式很是直觀,但這其中也有個值得注意的地方:爲取得更好的性能,須要明確指定透視列對應的不一樣值,例如若是C列有兩個不一樣的值(
相關文章
相關標籤/搜索