jupyter notebook佔用內存空間過大打不開的解決辦法(包括但不限於爬蟲造成的)

jupyter notebook由於超過內存限制而「鎖死」的解決 這兩天用爬蟲爬數據的時候由於print了大量的爬取內容,讓notebook內存溢出停止運行,連帶着localhost:8888也崩潰了。Google Chrome的處理機制應該是殺掉內存溢出的頁面,所以localhost:8888刷新一下就恢復了。 但是!我的code找不回來了!不知道是什麼機制,在文件裏看到的大小隻有不到45MB,
相關文章
相關標籤/搜索