CDH安裝Spark2後一些問題

** CDH安裝Spark2後一些問題 ** 安裝完成後,發現執行命令有問題 問題原因:最後找到原因是因爲CM安裝Spark不會去環境變量去找Java,需要將Java路徑添加到CM配置文件 解決辦法: 找到hadoop102、hadoop103、hadoop104三臺機器的配置,配置java主目錄 這裏只是我遇到的一個問題,可能很片面,但希望有助於他人。
相關文章
相關標籤/搜索