LSTM理解

背景 本文按照RNN和LSTM(1997年提出)進行對比、LSTM的標準流程、LSTM的常見變種、爲什麼LSTM不會出現梯度爆炸或梯度消失?、雙向LSTM、深度雙向LSTM的脈絡進行記述。由於常見的RNN隨着序列的增長產生梯度爆炸或梯度消失問題,導致在實際應用過程中並不能學習到間隔太遠的輸入,從而誕生了LSTM。 RNN和LSTM對比 下面是一些必要的圖示: LSTM標準流程 LSTM的常見變種
相關文章
相關標籤/搜索