spark-DataFrame學習記錄-[2]解決spark-dataframe的JOIN操做以後產生重複列(Reference '***' is ambiguous問題解決)

【1】轉帖部分 轉自:http://blog.csdn.net/sparkexpert/article/details/52837269java 如分別建立兩個DF,其結果以下: val df = sc.parallelize(Array( ("one", "A", 1), ("one", "B", 2), ("two", "A", 3), ("two", "B", 4) )).toDF(
相關文章
相關標籤/搜索