在深度神經網絡中防止過擬合

摘自O社的fundamentals of Deep Learning 第一種方法:正則化 1、L2正則化 正則化通過添加懲罰大權重的附加項來修改我們最小化的目標函數。換言之,我們將目標函數改爲Error+λf (θ) ,f(θ)隨 θ的變大而變大, λ 是另一個名叫正則化強度的超參數。 我們選擇λ 的值的大小決定了我們想解決過擬合的程度。 λ =0說明我們沒有采取任何方法防止過擬合。如果λ太大,那
相關文章
相關標籤/搜索