在SparkWorker1 和SparkWorker2上使用jps會看到以下進程信息:shell
第二步:啓動Spark集羣oop
在Hadoop集羣成功啓動的基礎上,啓動Spark集羣須要使用Spark的sbin目錄下「start-all.sh」:spa
此時的SparkWorker1和SparkWorker2會出現新的進程「Worker」:進程
此時,咱們能夠進入Spark集羣的Web頁面,訪問「http://SparkMaster:8080」: 以下所示:spark
從頁面上咱們能夠看到咱們有兩個Worker節點及這兩個節點的信息。ast
此時,咱們進入Spark的bin目錄,使用「spark-shell」控制檯:集羣