如何避免spark dataframe的JOIN操做以後產生重複列(Reference '***' is ambiguous問題解決)

spark datafrme提供了強大的JOIN操做。sql 可是在操做的時候,常常發現會碰到重複列的問題。以下:apache 如分別建立兩個DF,其結果以下:spa val df = sc.parallelize(Array(     ("one", "A", 1), ("one", "B", 2), ("two", "A", 3), ("two", "B", 4) )).toDF("key1"
相關文章
相關標籤/搜索