數據分析TB級別數據量大了怎麼辦,不會代碼模型訓練怎麼辦?

數據分析經常會遇到數據量大的問題,比如用R語言和Python語言時經常會遇到內存溢出的問題,即使把整個機器內存全部使用,達到最大使用率,還是無濟於事,比如數據量是10T,並且在大數據量下,既要保證數據能夠得出結果,還要一個好的模型進行迭代訓練,得到一個好的模型。這些很難。 這裏有兩個問題 數據量大 模型訓練準確性 對於第一個問題,就算單機內存再大,也是不可能處理未來不可預知的增長的數據的,這時候就
相關文章
相關標籤/搜索