Spark安裝與部署

1.首先安裝scala(找到合適版本的具體地址下載)

在/usr/local/目錄下
wget https://www.scala-lang.org/download/****

2.安裝spark

(因爲個人Hadoop是2.7.6版本的,所以我所用的spark是在官網上的適用hadoop-2以上版本的)
wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.4.3/spark-2.4.3-bin-hadoop2.7.tgz
tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz
rm spark-2.4.3-bin-hadoop2.7.tgz

3.配置環境變量

vim /etc/profile

4.刷新環境變量

source /etc/profile

5.複製配置文件

cp slaves.template slaves
cp spark-env.sh.template spark-env.sh

6.接着進行如下配置

vim /etc/profile(查看其它配置文件直接複製便可)
vim ./spark-2.4.3-bin-hadoop2.7/conf
vim spark-env.sh

7.啓動spark環境

1)先啓動Hadoop環境

/usr/local/hadoop-2.7.6/sbin/start-all.sh

2) 啓動Spark環境

/usr/local/spark-2.4.3-bin-hadoop2.7/sbin/start-all.sh

8.查看spark的web控制界面

顯示端口爲7077

 

9.查看Hadoop的web端界面

 

10.驗證Spark是否安裝成功

bin/run-example SparkPi
注意:命令執行後出現一大堆東西,只須要從中找到下面這個圖中的東西,就說明安裝成功。
bin/run-example SparkPi 2>&1 | grep "Pi is"

11.使用Spark Shell編寫代碼

1)啓動Spark Shell

bin/spark-shell

2)加載text文件

spark建立sc,能夠加載本地文件和HDFS文件建立RDD。這裏用Spark自帶的本地文件README.md文件測試。
scala>val textFile=sc.textFile("file:///usr/local/spark-2.4.3-bin-hadoop2.7/README.md")
加載HDFS文件和本地文件都是使用textFile,區別是添加前綴(hdfs://和file://)進行標識。

3)簡單RDD操做

scala> textFile.first() // 獲取RDD文件textFile的第一行內容
scala> textFile.count() // 獲取RDD文件textFile的全部項的計數
scala> val lineWithSpark=textFile.filter(line=>line.contains("Spark"))// 抽取含有「Spark」的行,返回一個新的RDD
scala> lineWithSpark.count() //統計新的RDD的行數

4)能夠經過組合RDD操做進行組合,能夠實現簡易MapReduce操做

scala> textFile.map(line=>line.split(" ").size).reduce((a,b)=>if(a>b) a else b) //找出文本中每行的最多單詞數

5)退出Spark shell

:quit
相關文章
相關標籤/搜索