Spark小技巧之pivot

最近在用spark處理數據的時候,遇到了這樣一種需求: 我想統計每個城市在工作日和週末早高峯、晚高峯、夜高峯和普通時間段的訂單數,並且早高峯、晚高峯、夜高峯和普通時間段分別佔一列。 原始文件CSV文件的內容如下圖所示: peak_type代表時間段,其中morning_peak代表早高峯、evening_peak代表晚高峯、nignt_peak代表夜高峯、normal代表正常時間段。 這個問題的實
相關文章
相關標籤/搜索