Spark On Yarn 中出現的問題記錄

1:運行候一直retry master:8032的問題node

    分析:多是由於yarn沒有啓動。oop

    解決:檢查是否啓動了服務.    用jps命令查看相關信息[是否存在ResourceManager]spa

2: mory used; 2.2 GB of 2.1 GB virtual memory used. Killing container.code

   分析:多是內存不夠的問題,由於本身是使用的虛擬機內存只分配了1G,後來百度了下並非物理內存的問題,yarn執行會檢查虛擬內存,若是虛擬內存不夠就會報此錯誤。xml

   解決:在{hadoopdir}/etc/Hadoop/yarn-site.xml文件中,修改檢查虛擬內存的屬性爲false,以下:內存

<property> 
    <name>yarn.nodemanager.vmem-check-enabled</name> 
    <value>false</value> 
</property>

3:Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPARK_HOME. 不影響運行,但每次執行yarn都會把spark目錄下的jars的包傳到hdfs上,嚴重影響運行效率.hadoop

    分析:須要設置相關的spark.yarn.jars nor spark.yarn.archive 參數虛擬機

    解決:it

        切換到spark目錄上傳spark的jars(spark1.6 只須要上傳spark-assembly-1.6.0-SNAPSHOT-hadoop2.6.0.jar)spark

hdfs dfs -mkdir /tmp/spark_jars
hdfs dfs -put jars/* /tmp/spark_jars/


        在spark的conf的spark-default.conf添加配置

spark.yarn.jars=hdfs://master:9000/tmp/spark_jars/* 

        重啓spark服務,搞定.

相關文章
相關標籤/搜索