下載jdk(以jdk-8u91-linux-x64.tar.gz爲例)java
新建文件夾node
sudo mkdir /usr/lib/jvm
linux
解壓下載的jdk文件並移動到新建的文件夾下shell
sudo tar -xzvf jdk-8u91-linux-x64.tar.gz -C /usr/lib/jvm
vim
進入jvm文件夾並重命名解壓出來的文件夾瀏覽器
cd /usr/lib/jvm sudo mv jdk1.8.0_91 jdk
添加環境變量bash
sudo vim /etc/profile # 添加以下配置 export JAVA_HOME=/usr/lib/jvm/jdk export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
使配置生效服務器
source /etc/profile
ssh
測試jvm
java -version
相似於jdk的安裝
下載scala(以scala-2.11.8.tgz爲例)
解壓下載的scala文件
sudo tar -xzvf scala-2.11.8.tgz -C /usr/local
重命名
cd /usr/local sudo mv scala-2.11.8 scala
添加環境變量
sudo vim /etc/profile # 在最後添加下面內容 export SCALA_HOME=/usr/local/scala export PATH=$SCALA_HOME/bin:$PATH
使配置生效
source /etc/profile
測試
scala -version
Spark默認使用HDFS充當持久化層,因此須要安裝Hadoop,固然也能夠不安裝
安裝ssh
sudo apt install openssh-server
配置ssh無密登錄
ssh-keygen -t rsa # 一直回車 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
測試ssh無密登錄
ssh localhost # 若是不提示輸入密碼則配置成功
下載Hadoop(以hadoop-2.7.2.tar.gz爲例)
解壓
sudo tar -xzvf hadoop-2.7.2.tar.gz -C /usr/local
重命名
cd /usr/local sudo mv hadoop-2.7.2 hadoop
修改權限
cd /usr/local sudo chown -R yourusername:yourusername hadoop
配置環境變量
sudo vim /etc/profile # 在最後添加下面代碼 export HADOOP_HOME=/usr/local/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
測試
hadoop version
修改配置文件core-site.xml
cd /usr/local/hadoop vim ./etc/hadoop/core-site.xml # 修改成以下 <configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
修改配置文件hdfs-site.xml
cd /usr/local/hadoop vim ./etc/hadoop/hdfs-site/xml # 修改成以下 <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> </configuration>
修改配置文件hadoop-env.sh
cd /usr/local/hadoop vim ./etc/hadoop/hadoop-env.sh # 將 export JAVA_HOME=${JAVA_HOME} 更改成: export JAVA_HOME=/usr/lib/jvm/jdk
執行NameNode格式化
hdfs namenode -format
運行
start-dfs.sh
測試
jps
有以下幾個進程
5939 Jps 5636 DataNode 5493 NameNode 5814 SecondaryNameNode
經過瀏覽器查看
在瀏覽器中輸入一下地址:localhost:50070
修改配置文件mapred-site.xml
cd /usr/local/hadoop cp ./etc/hadoop/mapred-site.xml.template ./etc/hadoop/mapred-site.xml vim ./etc/hadoop/mapred-site.xml # 修改成以下配置 <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
修改配置文件yarn-site.xml
cd /usr/local/hadoop vim ./etc/hadoop/yarn-site.xml # 修改成如下配置 <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
編寫啓動腳本
#!/bin/bash # 啓動hadoop start-dfs.sh # 啓動yarn start-yarn.sh # 啓動歷史服務器,以便在Web中查看任務運行狀況 mr-jobhistory-daemon.sh start historyserver
編寫中止腳本
#!/bin/bash # 中止歷史服務器 mr-jobhistory-daemon.sh stop historyserver # 中止yarn stop-yarn.sh # 中止hadoop stop-dfs.sh
經過 Web 界面查看任務的運行狀況
瀏覽器中輸入地址:localhost:8088
下載spark(以spark-2.0.0-bin-hadoop2.7.tgz爲例)
解壓下載的spark文件
sudo tar -zxf spark-2.0.0-bin-hadoop2.7.tgz -C /usr/local
重命名
cd /usr/local sudo mv spark-2.0.0-bin-hadoop2.7 spark
添加環境變量
sudo vim /etc/profile # 在最後添加下面內容 export SPARK_HOME=/usr/local/spark export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
修改一下權限
cd /usr/local sudo chown -R yourusername:yourusername ./spark
拷貝配置文件
cd /usr/local/spark cp ./conf/spark-env.sh.template ./conf/spark-env.sh
修改配置文件
cd /usr/loca/spark vim ./conf/spark-env.sh # 添加下面一行 export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) export JAVA_HOME=/usr/lib/jvm/jdk
運行簡單示例
/usr/local/spark/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"
啓動Spark
/usr/local/spark/sbin/start-all.sh
編寫腳本
啓動Hadoop以及Spark
#!/bin/bash # 啓動Hadoop以及yarn start-dfs.sh start-yarn.sh # 啓動歷史服務器 mr-jobhistory-daemon.sh start historyserver # 啓動Spark /usr/local/spark/sbin/start-all.sh
中止Hadoop以及Spark
#!/bin/bash # 中止Spark stop-dfs.sh stop-yarn.sh # 中止歷史服務器 mr-jobhistory-daemon.sh stop historyserver # 中止Hadoop以及yarn /usr/local/hadoop/sbin/stop-all.sh
經過WEB頁面查看
瀏覽器中輸入地址:`localhost:8080`