spark報錯:ERROR SparkUI: Failed to bind SparkUI,解決辦法

錯誤緣由: 每個Spark任務都會佔用一個SparkUI端口,默認爲4040,若是被佔用則依次遞增端口重試。可是有個默認重試次數,爲16次。16次重試都失敗後,會放棄該任務的運行。 參考: http://blog.csdn.net/a921122/article/details/45095845html 解決辦法 根據提示,能夠在命令行經過配置,增長嘗試的次數,具體來講: /data/hadoop
相關文章
相關標籤/搜索