pytorch--How to free CPU RAM after `module.to(cuda_device)`?

How to free CPU RAM after module.to(cuda_device)? 大家在使用pytorch的時候,可能會發現一個問題,就是呢,我們使用module.to(cuda_device) 語句後,模型轉到了gpu,顯存增長了但是同樣內存也增長了,一般不管網絡多大,最少漲2G。我在lenet測試了,在maskrcnn-benchmark項目均測試過,效果都是這樣子。 這裏經
相關文章
相關標籤/搜索