spark1.6轉到spark2.3總結(依賴、版本、初始化問題)

問題:pom裏面不寫spark版本(<spark.version>2.0.0</spark.version>)的話,可能會默認用spark1.6導致版本衝突異常——語法通過但無法編譯運行 問題(spark版本必須對應Scala版本):參考https://mvnrepository.com/artifact/org.apache.spark/spark-hive上面的spark和Scala混搭版本(
相關文章
相關標籤/搜索