深度學習訓練時網絡不收斂的緣由分析總結

不少同窗會發現,爲何我訓練網絡的時候loss一直居高不下或者準確度時高時低,震盪趨勢,一會到11,一會又0.1,不收斂。 又不知如何解決,博主總結了本身訓練經驗和看到的一些方法。數據庫 首先你要保證訓練的次數夠多,不要覺得一百兩百次就會一直loss降低或者準確率一直提升,會有一點震盪的。只要整體收斂就行。若訓練次數夠多(通常上千次,上萬次,或者幾十個epoch)沒收斂,則試試下面方法:網絡 記憶寶
相關文章
相關標籤/搜索