Spark Standalone 提交模式

一.Client提交模式node

  提交命令:apache

    ./spark-submit --master spark://node1:7077 --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadooop2.6.0.jar 100app

    等價【默認爲client】:oop

    ./spark-submit --master spark://node1:7077 --deploy-mode client --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadooop2.6.0.jar 100測試

  執行流程:spa

  

  分析:3d

    standalone-client模式提交任務,會在客戶端看到task的執行狀況和結果。當在客戶端提交多個application時,每一個application會啓動本身的dirver,driver與集羣worker有大量的通訊,會形成客戶端網卡流量激增的問題,這種模式適用於測試而不適應於生產環境。blog

二.Cluster提交模式it

   提交命令:spark

    ./spark-submit --master spark://node1:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadooop2.6.0.jar 100 

  執行流程:

    

  分析:

    standalone-cluster模式提交任務driver會在集羣中的隨機選擇一個worker上啓動,若是提交多個application,那麼每一個application的driver會分散到集羣的各個worker節點,至關於將client模式的客戶端網卡流量激增問題分散到集羣的各個節點中。這種模式適用於生產環境。

相關文章
相關標籤/搜索