Spark集羣部署 apache
本次博文轉發了超圖研究所的技術博文,但願對各位Spark技術研究者有用。 vim
第四步:建立虛擬機
基於建立的鏡像,生成2臺虛擬機,加上最開始用於建立鏡像的1臺,一共3臺虛擬主機,名稱分別爲:
spark_hadoop_master
spark_hadoop_slave1
spark_hadoop_slave2
下面就能夠開始作與建立Spark集羣相關的操做了。
第五步:設置主機名
1.在/etc/hostname中就改主機名,分別設置三臺主機爲master、slave一、slave2,並重啓
ssh
2.重啓以後,分別設置三個節點etc/hosts,指定ip和主機名的對應關係。
經過測試root@master :~# ssh slave1,在輸入root用戶密碼後能夠登陸。
第六步:修改ssh無密碼訪問
首先開啓root用戶訪問權限
1. 修改/etc/ssh/sshd-config文件,設置以下:
2. PermitRootLogin yes
3. PubkeyAuthentication yes
4. PasswordAuthentication yes
從新啓動ssh服務:service ssh restart
再進行以下測試,能夠免輸入密碼登陸了。
第七步:配置Spark集羣
進入Spark的conf目錄:
jvm
把spark-env.sh.template拷貝爲spark-env.sh
把slaves.template拷貝爲slaves oop
vim打開spark-env.sh修改其中的內容,加入如下設置 測試
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_80
export SPARK_MASTER_IP=192.168.12.154
export SPARK_WORKER_MEMORY=4g
export SCALA_HOME=/usr/lib/scala/scala-2.11.7
export HADOOP_CONF_DIR=/home/supermap/program/hadoop-2.6.3/conf lua
SPARK_WORKER_MEMORY:制定的Worker節點可以最大分配給Excutors的內存大小,因爲配置的虛擬機是4g內存,爲了最大限度使用內存,這裏設置4G。
接下來配置slaves文件,把Workers節點都添加進去:
這種配置把master也做爲一個Worker節點。 spa
以上配置在master和slave1,slave2節點都作相同處理。 .net
第八步:啓動集羣
這裏測試沒有啓動Hadoop集羣,只須要Spark集羣進行啓動便可,在Spark目錄下,運行sbin/start-all.sh便可啓動集羣服務。
最後經過訪問spark管理頁面查看服務狀態
scala