一、安裝包準備:html
首先到官網下載jdk,http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html,我下載jdk-7u79-linux-x64.tar.gz,下載到主目錄java
二、解壓安裝包linux
經過終端在/usr/local目錄下新建java文件夾,命令行:數據庫
sudo mkdir /usr/local/java
而後將下載到壓縮包拷貝到java文件夾中,命令行:apache
進入jdk壓縮包所在目錄oracle
cp jdk-7u79-linux-x64.tar.gz /usr/local/java
而後進入java目錄,命令行:ssh
cd /usr/local/java
解壓壓縮包,命令行:oop
sudo tar xvf jdk-7u79-linux-x64.tar.gz
而後能夠把壓縮包刪除,命令行:ui
sudo rm jdk-7u79-linux-x64.tar.gz
三、設置jdk環境變量spa
這裏採用全局設置方法,就是修改etc/profile,它是是全部用戶的共用的環境變量
sudo vi /etc/profile
打開以後在末尾添加
export JAVA_HOME=/usr/local/java/jdk1.7.0_79 export JRE_HOME=/usr/local/java/jdk1.7.0_79/jre export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin: $PATH
使profile生效
source /etc/profile
四、檢驗是否安裝成功
在終端
java -version
顯示以下
java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
PS:後來發現直接rpm包jdk-7u79-linux-x64.rpm桌面雙擊安裝也OK,^_^
一、安裝包準備:
首先到官網下載scala,http://www.scala-lang.org/,下載scala-2.11.4.tgz,並複製到/usr/bib
二、解壓安裝包
tar -zxf scala-2.11.4.tgz
三、設置scala環境變量
這裏採用全局設置方法,就是修改etc/profile,它是是全部用戶的共用的環境變量
sudo vi /etc/profile
打開以後在末尾添加
export SCALA_HOME=/usr/lib/scala-2.11.4
export PATH=$SCALA_HOME/bin:$PATH
使profile生效
source /etc/profile
四、檢驗是否安裝成功
在終端
scala -version
顯示以下
Scala code runner version 2.11.4 -- Copyright 2002-2013, LAMP/EPFL
一、安裝包準備:
hadoop版本有點混亂,除了http://hadoop.apache.org/有衆多版本以外,還有Cloudera公司的CDH版本,請從觀望下載hadoop-2.3.0.tar.gz或者下載CDH版本hadoop-2.3.0-cdh5.0.0.tar.gz,本文環境是在hadoop-2.3.0-cdh5.0.0.tar.gz之上創建。
二、解壓安裝包
下載安裝包以後複製到/usr目錄。
tar -zxf hadoop-2.3.0-cdh5.0.0.tar.gz
解壓後生成hadoop-2.3.0-cdh5.0.0,重命名爲hadoop-2.3.0。
三、配置環境
這裏採用全局設置方法,就是修改etc/profile,它是是全部用戶的共用的環境變量
sudo vi /etc/profile
打開以後在末尾添加
export HADOOP_HOME=/home/zero/hadoop/hadoop-2.3.0
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
使profile生效
source /etc/profile
三、創建hadoop用戶
useradd hadoop
passwd hadoop
三、配置SSH免登陸
su hadoop //切換到hadoop用戶目錄下
ssh-keygen-t rsa(一路回車 生成密鑰)
cd/home/hadoop/.ssh/
scp id_rsa.pub hadoop@slave1:/home/hadoop/.ssh/
mv id_rsa.pub authorized_keys
一、安裝包準備:
spark官網下載spark-1.3.1-bin-hadoop2.3.tgz。
二、解壓安裝包
下載安裝包以後複製到/usr目錄。
tar -zxf spark-1.3.1-bin-hadoop2.3.tgz
解壓後生成spark-1.3.1-bin-hadoop2.3,重命名爲spark-1.3.1-hadoop2.3。
三、配置環境
這裏採用全局設置方法,就是修改etc/profile,它是是全部用戶的共用的環境變量
sudo vi /etc/profile
打開以後在末尾添加
export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
export PATH=$SPARK_HOME/bin:$PATH
使profile生效
source /etc/profile
四、配置環境
這裏採用全局設置方法,就是修改etc/profile,它是是全部用戶的共用的環境變量
sudo vi /etc/profile
打開以後在末尾添加
export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
export PATH=$SPARK_HOME/bin:$PATH
使profile生效
source /etc/profile
配置Spark環境變量
cd $SPARK_HOME/conf
cp spark-env.sh.template spark-env.sh
vi spark-env.sh 添加如下內容:
export JAVA_HOME=/usr/local/java-1.7.0_79 export HADOOP_HOME=/usr/hadoop-2.3.0
export HADOOP_CONF_DIR=/etc/hadoop/conf export SCALA_HOME=/usr/lib/scala-2.11.4 export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3 export SPARK_MASTER_IP=127.0.0.1 export SPARK_MASTER_PORT=7077 export SPARK_MASTER_WEBUI_PORT=8099 export SPARK_WORKER_CORES=3 //每一個Worker使用的CPU核數 export SPARK_WORKER_INSTANCES=1 //每一個Slave中啓動幾個Worker實例 export SPARK_WORKER_MEMORY=10G //每一個Worker使用多大的內存 export SPARK_WORKER_WEBUI_PORT=8081 //Worker的WebUI端口號 export SPARK_EXECUTOR_CORES=1 //每一個Executor使用使用的核數 export SPARK_EXECUTOR_MEMORY=1G //每一個Executor使用的內存
export SPARK_CLASSPATH=/usr/spark-1.3.1-hadoop2.3/lib/sequoiadb-driver-1.12.jar:/usr/spark-1.3.1-hadoop2.3/lib/spark-sequoiadb_2.11.2-1.12.jar //使用巨衫數據庫
export SPARK_CLASSPATH=$SPARK_CLASSPATH:$CLASSPATH
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/nativ
配置Slave
cp slaves.template slaves
vi slaves 添加如下內容:
localhost
五、啓動Spark Master
cd $SPARK_HOME/sbin/
./start-master.sh
六、啓動Spark Slave
cd $SPARK_HOME/sbin/./start-slaves.sh