使用Pandas分塊處理大文件

使用Pandas分塊處理大文件 問題:今天在處理快手的用戶數據時,遇到了一個差很少600M的txt文本,用sublime打開都蹦了,我用pandas.read_table()去讀,差很少花了近2分鐘,最後打開發現差很少3千萬行數據。這僅僅是打開,若是要處理不知得多費勁。html 解決:我翻了一下文檔,這一類讀取文件的函數有兩個參數:chunksize、iteratorweb 原理就是不一次性把文件
相關文章
相關標籤/搜索