【Spark】- 單機模式部署

單機部署:單臺主機運行Spark,不依賴YARN、MESOS管理資源web

Saprk版本:spark-2.2.1-bin-hadoop2.7shell

部署步驟:

  1. 解壓Spark的二進制壓縮包,最好配置環境變量apache

  2. 啓動master節點:./sbin/start-master.shoop

webUI訪問端口:8080測試

Master默認監聽端口:7077ui

  1. 啓動woker節點:./sbin/start-slave.sh <master-spark-URL>

例如:start-slave.sh spark://debian:7077spa

參數:表示master節點的訪問地址(注意host-ip映射)3d

  1. 鏈接單機Spark集羣:spark-shell --master spark://debian:7077 (Spark Scala交互式開發環境,「:quit」退出)

  1. 單機提交Spark自帶測試做業:計算PI

命令:spark-submit --class org.apache.spark.examples.SparkPi --master spark:// debian:7077 examples/jars/spark-examples_2.11-2.2.1.jar 100blog

Master UI界面介紹:ip

相關文章
相關標籤/搜索