spark內存溢出

spark執行任務時出現java.lang.OutOfMemoryError: GC overhead limit exceeded和java.lang.OutOfMemoryError: java heap spacejava 最直接的解決方式就是在spark-env.sh中將下面兩個參數調節的儘可能大node     export SPARK_EXECUTOR_MEMORY=2g     ex
相關文章
相關標籤/搜索