spark集羣

安裝包:http://d3kbcqa49mib13.cloudfront.net/spark-2.1.0-bin-hadoop2.7.tgz
              http://www.scala-lang.org/download/2.12.2.html
        
環境基於Hadoop的,前面已搭建完成html

設置spark環境變量
export SCALA_HOME=/usr/local/scala
export SPARK_HOME=/usr/local/spark-2.1.0/
export PATH=$PATH:$SPARK_HOME/bin:$SCALA_HOME/binjava

修改配置文件
cd /usr/local/spark-2.1.0/conf
cp spark-defaults.conf.template spark-defaults.conf
vim spark-defaults.confweb

#eventLog是否生效(建議開啓,能夠對已完成的任務記錄其詳細日誌)
spark.eventLog.enabled          true
#eventLog是否啓用壓縮(cpu性能好的狀況下建議開啓,以減小內存等的佔用) 
spark.eventLog.compress         true
#eventLog的文件存放位置,與spark-env.sh中的history server配置位置一致,這兩個位置必須手動建立 hadoop fs -mkdir -p /tmp/spark/applicationHistory,不然spark啓動失敗
spark.eventLog.dir              hdfs://10.68.4.49:9000/tmp/spark/applicationHistory
#廣播塊大小 
spark.broadcast.blockSize       8m
#Executor的cpu核數
spark.executor.cores            1
#Executor的內存大小
spark.executor.memory           512m
#Executor心跳交換時間間隔
spark.executor.heartbeatInterval        20sshell

#文件抓取的timeout
spark.files.fetchTimeout        120s
#做業最大失敗次數(達到這次數後,該做業再也不繼續執行,運行失敗)
spark.task.maxFailures          6
#設置序列化機制(默認使用java的序列化,可是速度很慢,建議使用Kryo)
spark.serializer                org.apache.spark.serializer.KryoSerializer
#序列化緩衝大小
spark.kryoserializer.buffer.max         256m
#Akka調度幀大小
#spark.akka.frameSize            128   
spark.rpc.message.maxSize       128
#默認並行數
spark.default.parallelism       20
#最大網絡延時
#spark.network.timeout           300s                 #最大網絡延時
spark.speculation               true                      #Spark推測機制(建議開啓)apache

vim spark-env.sh
SPARK_LOCAL_IP=10.68.4.49
 #本機ip或hostname
SPARK_LOCAL_DIRS=/data/spark/local
 #配置spark的local目錄
SPARK_MASTER_IP=10.68.4.49
#master節點ip或hostname
SPARK_MASTER_WEBUI_PORT=8080
 #web頁面端口vim

export SPARK_MASTER_OPTS="-Dspark.deploy.defaultCores=4"
 #spark-shell啓動使用核數
SPARK_WORKER_CORES=4
 #Worker的cpu核數
SPARK_WORKER_MEMORY=4g
#worker內存大小
SPARK_WORKER_DIR=/data/spark/work
#worker目錄
export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.appDataTtl=604800"
#worker自動清理及清理時間間隔
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -             Dspark.history.fs.logDirectory=hdfs://10.68.4.49:9000/tmp/spark/applicationHistory"
 #history server頁面端口、備份數、log日誌在HDFS的位置
SPARK_LOG_DIR=/data/log/spark
 #配置Spark的log日誌目錄服務器

export JAVA_HOME=/data/java/jdk                                       #配置java路徑
export SCALA_HOME=/usr/local/scala                                    #配置scala路徑網絡

export SPARK_MASTER_HOST=10.68.4.49
export SPARK_WORKER_MEMORY=10240mapp

export HADOOP_HOME=/usr/local/hadoop/lib/native              #配置hadoop的lib路徑
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop/  #配置hadoop的配置路徑oop

複製到其它從服務器
scp -r /usr/local/spark-2.1.0 slave:/usr/local
修改spark-env.sh文件中的SPARK_LOCAL_IP地址爲本身的ip地址

cd /usr/local/spark-2.1.0/sbin ./start-all.sh jps 查看 主顯示master  從顯示worker

相關文章
相關標籤/搜索