尋找hadoop、hive、spark對應版本

      一開始裝了hadoop3.2.1+hive3.1.2+spark3.0.0,整個安裝雖然有一些些jar包版本衝突問題但都解決了,直到寫spark-sql的時候執行,sparkSession.sql("……")的時候報了一個類找不到問題,一眼看過去就覺得應該又是包衝突了,然後,從pom.xml引入的包版本衝突開始解決,最後演變成,解決A問題,發現了B問題,又遇到D問題……一種坑越挖越大的
相關文章
相關標籤/搜索