解決梯度消失梯度爆炸強力推薦的一個算法-----GRU(門控循環神經⽹絡)

LSTM的一種變體或優化----GRU 在循環神經⽹絡中的梯度計算⽅法中,我們發現,當時間步數較⼤或者時間步較小時,循環神經⽹絡的梯度較容易出現衰減或爆炸。雖然裁剪梯度可以應對梯度爆炸,但⽆法解決梯度衰減的問題。通常由於這個原因,循環神經⽹絡在實際中較難捕捉時間序列中時間步距離較⼤的依賴關係。 **門控循環神經⽹絡(gated recurrent neural network)**的提出,正是爲了
相關文章
相關標籤/搜索