model.to(device)那裏報錯RuntimeError: CUDA error: out of memory

試了很多方法,什麼減小batch size,什麼模型與pytorch不匹配,還有損失函數和梯度存儲的方法,都沒解決。 可能一些人的情況和我一樣:就是和別人共用一臺實驗室服務器,別人的實驗太吃顯存了,這時候可以在服務器的linux命令行輸入: watch -n 10 nvidia-smi 查看顯存使用情況 紅色框框是顯存使用情況,可以看出我用的服務器沒啥顯存了,是沒有辦法把模型放到gpu上面的。 當
相關文章
相關標籤/搜索