數據太大爆內存怎麼辦?七條解決思路

在研究、應用機器學習算法的經歷中,相信大夥兒經常遇到數據集太大、內存不夠用的情況。 這引出一系列問題: 怎麼加載十幾、幾十 GB 的數據文件? 運行數據集的時候算法崩潰了,怎麼辦? 怎麼處理內存不足導致的錯誤? 本文將討論一些常用的解決辦法,供大家參考。 處理大型 ML 數據文件的七種思路 1. 分配更多內存 有的機器學習工具/庫有默認內存設置,比如 Weka。這便是一個限制因素。 你需要檢查一下
相關文章
相關標籤/搜索