【Spark亞太研究院系列叢書】Spark實戰高手之路-第一章 構建Spark集羣(第三步)(3)

啓動並查看集羣的情況

第一步:啓動Hadoop集羣,這個在第二講中講解的很是細緻,在此再也不贅述:web

啓動以後在Master這臺機器上使用jps命令,能夠看到以下進程信息:shell

在Slave1 和Slave2上使用jps會看到以下進程信息:oop

第二步:啓動Spark集羣spa

 在Hadoop集羣成功啓動的基礎上,啓動Spark集羣須要使用Spark的sbin目錄下「start-all.sh」:orm

接下來使用「start-all.sh」來啓動Spark集羣!進程

讀者必須注意的是此時必須寫成「./start-all.sh」來代表是當前目錄下的「start-all.sh」,由於咱們在配置Hadoop的bin目錄中也有一個「start-all.sh」文件!it

 此時使用jps發現咱們在主節點正如預期同樣出現了「Master」和「Worker」兩個新進程!spark

此時的Slave1和Slave2會出現新的進程「Worker」:io

此時,咱們能夠進入Spark集羣的Web頁面,訪問「http://Master:8080」: 以下所示:ast

從頁面上咱們能夠看到咱們有三個Worker節點及這三個節點的信息。

此時,咱們進入Spark的bin目錄,使用「spark-shell」控制檯:

此時咱們進入了Spark的shell世界,根據輸出的提示信息,咱們能夠經過「http://Master:4040」 從Web的角度看一下SparkUI的狀況,以下圖所示:

固然,你也能夠查看一些其它的信息,例如Environment:

同時,咱們也能夠看一下Executors:

能夠看到對於咱們的shell而言,Driver是Master:50777.

 

至此,咱們 的Spark集羣搭建成功,Congratulations!

相關文章
相關標籤/搜索