【Spark亞太研究院系列叢書】Spark實戰高手之路-第一章 構建Spark集羣(第五步)(10)

在SparkWorker1 和SparkWorker2上使用jps會看到以下進程信息:shell

第二步:啓動Spark集羣oop

在Hadoop集羣成功啓動的基礎上,啓動Spark集羣須要使用Spark的sbin目錄下「start-all.sh」:spa

此時的SparkWorker1和SparkWorker2會出現新的進程「Worker」:進程

此時,咱們能夠進入Spark集羣的Web頁面,訪問「http://SparkMaster:8080」: 以下所示:spark

從頁面上咱們能夠看到咱們有兩個Worker節點及這兩個節點的信息。ast

此時,咱們進入Spark的bin目錄,使用「spark-shell」控制檯:集羣

相關文章
相關標籤/搜索