spark thriftserver運維

spark thriftserver運維:java

在root@spark_master_machine機器上node


啓動 thriftserver========================================================================================================================================================================app

/root/cdh/spark/spark-1.4.1-bin-hadoop2.6/sbin/start-thriftserver.sh \運維

  --hiveconf hive.server2.thrift.port=10000 \oop

  --hiveconf hive.server2.thrift.bind.host=spark_master_machine  \spa

  --master  spark://spark_master_machine:7077  --executor-memory 24g  --executor-cores 8  --total-executor-cores 136 --driver-memory 10g --driver-java-options -XX:MaxPermSize=2gserver



中止 thriftserver========================================================================================================================================================================內存

/root/cdh/spark/spark-1.4.1-bin-hadoop2.6/sbin/stop-thriftserver.sh hadoop




note:it

1.爲了spark thrift server指定比較多的core:配置了spark-defaults.conf裏spark.driver.cores

經過./sbin/start-thriftserver.sh -–help 能夠用來查看能夠使用哪些參數,沒有發現driver-cores的指定方式,爲了指定thrift server能夠使用多少個core,在spark-defaults.conf中指定(不要在這臺機器提交spark 任務,去腳本機器提交任務)

#

spark-defaults.conf配置以下:

spark.master                    spark://spark_master_machine:7077 

spark.eventLog.enabled           true

spark.eventLog.dir               hdfs:/namenodewithoutport/user/root/kk

spark.driver.cores               10

#


2.指定total-executor-cores來限制ExecutorID產生的數量。

若是--executor-cores 6 --total-executor-cores 102 --executor-memory 16g,

每一個worker若是還閒置6core,以及16內存, 那麼Executor產生兩個,致使使用掉worker機器所分配的最大內存(這裏分配了32g),也就會產生34個Executor


3.(防止beeline報錯,MaxPermSize不夠,增長配置--driver-java-options -XX:MaxPermSize=2g,配置了這個,也只是thriff server這個spark driver program MaxPermSize變化了,這個app的executor仍是-XX:MaxPermSize=128m)

相關文章
相關標籤/搜索