Spark API編程動手實戰-07-join操作深入實戰

我們在hdfs的/data/join創建兩個文件: 上傳第一個文件名稱爲1.txt 內容第一列是日期,第二列uid(普通用戶id)   上傳第二個文件名稱爲2.txt 內容第一列是日期,第二列uid(普通用戶id) 執行上傳到hdfs: hdfs命令行查詢: web控制檯管理查詢: 首先在命令行中設置日期格式: 然後聲明兩個case class:Register、Login 讀取第一個文件(1.t
相關文章
相關標籤/搜索