用寫sql的思路寫 pyspark

文章目錄 初始化: 1. 查詢篩選以及UDF 1.1 新增字段 1.2 字段爲list,包含子項 2. group by 聚合 2.1 想自定義聚合函數, 3. 對數據結果排序 4. join關聯 5. 窗口函數 6. 取topN 7. 展開一個字段到多行 初始化: from pyspark import SparkConf, SparkContext from pyspark.sql impor
相關文章
相關標籤/搜索