深度學習筆記_tensorflow2.0_過擬合(二)

減少過擬合方法: 交叉驗證 normalization 學習率調整, learning rate decay momentum動量調整 k折交叉檢驗: 正則化: 更小的權值w,從某種意義上說,表示網絡的復 雜度更低,對數據的擬合剛剛好(這個法則也叫做奧卡姆剃刀) 添加正則化相當於參數的解空間添加了約束,限制了模型的複雜度 L1正則化的形式是添加參數的絕對值之和作爲結構風險項,L2正則化的形式添加參
相關文章
相關標籤/搜索