看各路高手說在spark集羣上運行java程序用spark-submit.sh ....而後一堆參數,非常麻煩!java
那麼問題來了,對於我這個習慣中傳統java命令執行程序的人來講怎麼辦,..並且這種方式不易於與其餘程序合併, 這裏有一種很簡潔的方式就是在conf/spark-env中配置:export
SPARK_CLASSPATH="$SPARK_CLASSPATH:/custom/*";而後把本身的程序jar都扔custom目錄中一份,接下來在服務器任意目錄均可以用傳統的java命令執行程序了,spark Excutor會根據上面配置 的路徑將所須要加載的類自動加載,這種執行方式是否是很happy了...不喜勿噴,請提出您寶貴的建議供你們學習
服務器