筆者有三臺機器,左側欄爲ip,右側爲hostname,三臺機器都有一個名爲spark的用戶。
html
192.168.248.150 spark-master 192.168.248.153 ubuntu-worker 192.168.248.155 spark-worker1
根據機器信息加入到三臺機器的/etc/hosts中。java
詳見Spark集羣搭建——Hadoop2.4.1集羣搭建,由於咱們使用的是standalone方式,只啓動hdfs便可。
web
參照Scala極速入門安裝部分,在一臺機器上解壓、配置環境變量後,將文件夾和環境變量文件經過scp拷貝到另外兩臺便可。
shell
scp -r scala spark@ubuntu-worker:~/spark
點此下載
apache
解壓文件 tar -xzvf spark-1.2.1-bin-hadoop2.4.tgzubuntu
1. 向環境變量添加spark home。oop
export SPARK_HOME=/home/mupeng/Hadoop/spark-1.2.1-bin-hadoop2.4 export PATH=$SPARK_HOME/bin:$PATH
2. 配置./conf/slavesspa
首先將slaves.template拷貝一份.net
cp slaves.template slaves
修改slaves文件scala
# A Spark Worker will be started on each of the machines listed below. spark-master ubuntu-worker spark-worker1
3. 配置./conf/spark-env.sh
一樣將spark-env.sh.template拷貝一份
cp spark-env.sh.template spark-env.sh
在spark-env.sh最後加入如下幾行
export JAVA_HOME=/home/mupeng/java/jdk1.6.0_35 export SCALA_HOME=/home/mupeng/scala/scala-2.11.6 export SPARK_MASTER_IP=192.168.248.150 export SPARK_WORKER_MEMORY=25g export MASTER=spark://192.168.248.150:7077
最後將spark-1.2.1-bin-hadoop2.4文件夾拷貝到另外兩個結點便可。
訪問web管理界面:http://192.168.248.150:8080
好了,配置結束,能夠在咱們的spark集羣上運行任務了!