用pandas讀取大文件

讀取上GB大文件的方式有不少,可是並非都有像pandas這樣強大的數據清洗功能。數據太大是,能夠分塊處理,及時手動刪除內存,最後在合併數據。html   今天在讀取一個超大csv文件的時候,遇到困難:python 首先使用office打不開 而後在python中使用基本的pandas.read_csv打開文件時:MemoryError 最後查閱read_csv文檔發現能夠分塊讀取。 read_cs
相關文章
相關標籤/搜索