spark任務在運行時報錯

1,當spark任務被kill的時候,要把spark.yarn.executor.memoryOverhead 設的大一點spa 2,當spark任務報oom內存不夠時,要把能夠把spark.executor.memory內存調大內存
相關文章
相關標籤/搜索