在507幹活的第4天(上)

昨天一波超額完成任務。直接看完了第四章的內容,神經網絡可以擬合任何函數的數學證明(還真挺好看的),今天爭取進入深度學習階段,順便看看反向傳播算法。 知識點1:深度學習的難點 深度學習的難點在於梯度不穩定。這種不穩定會導致前面的隱層和後面的隱層訓練速度差異很大。 知識點2:梯度消失 梯度消失指的是前面的隱層梯度迅速減小的情況。 這種情況源於梯度的數學公式: 這個函數看似很複雜,實際上就是一個很清晰的
相關文章
相關標籤/搜索