神經網絡梯度消失原因

(PS:因時間關係,本文是口水話,很少公式。需要一定神經網絡知識的小夥伴纔看的懂哦。如有不對,請批評指正) 好啦,戲太多,下面進入正題------------------------------> 1. 衆所周知,神經網絡中的激活函數,很多都是用的S型函數。(sigmiod函數) 2. 當神經網絡層次夠深的時候,更新權重,也許會出現梯度消失!!! 原因如下: 1 神經網絡用的是梯度下降法,來進行每
相關文章
相關標籤/搜索