class not found 的幾種可能(failed to launch org.apache.spark.deploy.master.Master)

1. 常見的class not found 就是class path路徑下找不到對應的class 文件。

2. jdk 版本不對

下面看一個樓主遇到的具體案例:

把對應spark 啓動shell 腳本最重執行的命令打印出來
java -cp /home/hadoop/spark-1.5.1-bin-hadoop1/lib/spark-assembly-1.5.1-hadoop1.2.1.jar org.apache.spark.launcher.Main org.apache.spark.deploy.master.Master --ip hadoop01 --port 7077 --webui-port 8080
接着檢查jar 包否真正卻少這個class:
java

發現jar 包內包含這個class,結合啓動腳本最重執行的命令來看,不是jar 包沒在class path的問題。
接着看下 具體class對應的jdk版本:
web

問題很明顯,編譯target jdk版本指定的是1.7 而運行環境jar 版本是1.6,更換jdk便可。

class not found 問題排查思路分享給你們。shell

相關文章
相關標籤/搜索