spark安裝運行在webUI界面不顯示worker

./spark/conf/spark-env.sh 文件中需要顯式地設置一些環境變量,不用系統默認值。親測,ubuntu16.04系統,spark-env.sh中手動配置 export JAVA_HOME=<>/jdk1.8 export SCALA_HOME=<>/scala export HADOOP_HOME=<>/hadoop export HADOOP_CONF_DIR=<>/hadoo
相關文章
相關標籤/搜索