吳恩達 1.10 梯度消失與梯度爆炸

訓練神經網絡 尤其是深度神經網絡所面臨的一個問題是梯度消失或梯度爆炸 也就是說 當你訓練深度網絡時 導數或坡度有時會變得非常大 或非常小 甚至以指數方式變小 這加大了訓練的難度 這節課 你將會了解梯度消失或爆炸問題的真正含義 以及如何更明智地選擇隨機初始化權重 從而避免這個問題 假設你正在訓練這樣一個極深的神經網絡: 爲了節約幻燈片上的空間,我畫的神經網絡每層只有兩個隱藏單元,但它可能含有更多。但
相關文章
相關標籤/搜索