損失函數梯度對比-均方差和交叉熵

前言 我們都知道在機器學習中,希望算法或者網絡收斂更快,有些是對數據預處理,尤其是Batch Normalization,有些是採用不同的激活函數,尤其是Relu激活函數取得了巨大的成功,還有一種加速收斂方法是更換損失函數。本博客就是針對均方差損失(MSE)和交叉熵損失的收斂速度做一個推導,當然少不了參考他人博客啦,但是參考歸參考,重在自己推導一遍。 國際慣例,來一波地址 人工神經網絡——【BP】
相關文章
相關標籤/搜索