tensorflow訓練時內存持續增長並佔滿

記錄一次小白的tensorflow學習過程,也爲有一樣困擾的小白留下點經驗。網絡 先說我出錯和解決的過程。在作風格遷移實驗時,使用預加載權重的VGG19網絡正向提取中間層結果,結果由於代碼不當,在遍歷圖片提取時內存持續增加,致使提取幾十個圖片的特徵內存就滿了。函數 緣由是在對每一張圖片正向傳播結束後,都會在留下中間信息。具體地說是在我將正向傳播的代碼與模型的代碼分離了,在每次遍歷圖片時都會正向傳播
相關文章
相關標籤/搜索