搭建Spark集羣

前提:系統已經安裝了:JDK  Scala  Hadoopjava 1.解壓安裝包到指定目錄 2.配置spark-env.sh export SCALA_HOME=/usr/scala export SPARK_HOME=/usr/spark export JAVA_HOME=/usr/java/jdk export HADOOP_CONF_DIR=/usr/hadoop/etc/hadoop
相關文章
相關標籤/搜索