第七章-深度學習中的正則化技術

深度學習中的正則化技術 1、前言 2、參數範數懲罰 2.1L^2參數正則化 2.2 L^1參數正則化 Bagging和其他集成方法 Dropout bagging與dropout訓練對比 1、前言 以增大訓練誤差爲代價來減少測試誤差,這些策略統稱爲正則化。 2、參數範數懲罰 我們討論各種範數懲罰對模型的影響。在神經網絡中,我們通常只對每一層仿射變換的權重做懲罰而不對偏置做正則懲罰。 2.1L^2參
相關文章
相關標籤/搜索