權重衰減(weight decay)/正則化與學習率衰減(learning rate decay)

推薦:深度學習總結(九)——正則化 1. 權重衰減(weight decay) L2正則化的目的就是爲了讓權重衰減到更小的值,在一定程度上減少模型過擬合的問題,所以權重衰減也叫L2正則化。 正則項懲罰係數,會懲罰節點的權重矩陣,如果我們的正則項係數很高以至於一些權重矩陣幾乎等於零。 1.1 L2正則化與權重衰減係數 L2正則化就是在代價函數後面再加上一個正則化項: 其中C0代表原始的代價函數,後面
相關文章
相關標籤/搜索