spark任務提交到yarn上,狀態一直Accepted且不停止不報錯

運行Spark集羣時狀態一直爲Accepted且不停止不報錯,如下面這樣的情況: 一般是由於有多個用戶同時向集羣提交任務或一個用戶向集羣同時提交了多個任務導致Yarn資源的分配錯誤。解決這個問題,只需要更改Hadoop的配置文件:/etc/hadoop/conf/capacity-scheduler.xml,把選項:yarn.scheduler.capacity.maximum-am-resour
相關文章
相關標籤/搜索