環境:ubuntu-16.04html
hadoop-2.6.0java
jdk1.8.0_161。web
spark-2.4.0-bin-hadoop2.6。這裏的環境不必定須要和我同樣,基本版本差很少都ok的,但注意這裏spark要和hadoop版本相對應。所需安裝包和壓縮包自行下載便可。ubuntu
由於這裏是配置spark的教程,首先必需要配置Hadoop,配置Hadoop的教程在Hadoop2.0僞分佈式平臺環境搭建。配置Java以及安裝VMware Tools就自行百度解決哈,這裏就不寫了(由於教程有點長,可能有些地方有些錯誤,歡迎留言評論,我會在第一時間修改的)。vim
tar -zxvf spark-2.4.0-bin-hadoop2.6
cd spark-2.4.0-bin-hadoop2.6/ cd conf/ cp spark-env.sh.template spark-env.sh
而後在spark-env.sh文件最後添加內容 bash
vim spark-env.sh
vim ~/.bashrc
在文件最後加入spark的路徑分佈式
保存使其當即生效。oop
source ~/.bashrc
cd .. sbin/start-all.sh
jps查看進程post
出現上面這些節點說明搭建成功。ui
http://localhost:8080/
退出命令爲 :quit 。