1:運行候一直retry master:8032的問題node
分析:多是由於yarn沒有啓動。oop
解決:檢查是否啓動了服務. 用jps命令查看相關信息[是否存在ResourceManager]spa
2: mory used; 2.2 GB of 2.1 GB virtual memory used. Killing container.code
分析:多是內存不夠的問題,由於本身是使用的虛擬機內存只分配了1G,後來百度了下並非物理內存的問題,yarn執行會檢查虛擬內存,若是虛擬內存不夠就會報此錯誤。xml
解決:在{hadoopdir}/etc/Hadoop/yarn-site.xml文件中,修改檢查虛擬內存的屬性爲false,以下:內存
<property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
3:Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPARK_HOME. 不影響運行,但每次執行yarn都會把spark目錄下的jars的包傳到hdfs上,嚴重影響運行效率.hadoop
分析:須要設置相關的spark.yarn.jars nor spark.yarn.archive 參數虛擬機
解決:it
切換到spark目錄上傳spark的jars(spark1.6 只須要上傳spark-assembly-1.6.0-SNAPSHOT-hadoop2.6.0.jar)spark
hdfs dfs -mkdir /tmp/spark_jars hdfs dfs -put jars/* /tmp/spark_jars/
在spark的conf的spark-default.conf添加配置
spark.yarn.jars=hdfs://master:9000/tmp/spark_jars/*
重啓spark服務,搞定.