spark RDD分區2GB限制(Size exceeds Integer.MAX_VALUE)

最近使用spark處理較大的數據文件,遇到了分區2G限制的問題,spark日誌會報以下的日誌: WARN scheduler.TaskSetManager: Lost task 19.0 in stage 6.0 (TID 120, 10.111.32.47): java.lang.IllegalArgumentException: Size exceeds Integer.MAX_VALUE a
相關文章
相關標籤/搜索