【學習筆記】LSTM 李弘毅

1. LSTM簡介 x 輸入順序不同,得到的結果不同 核心:memory 2. LSTM training 3. LSTM和RNN的比較(爲什麼說LSTM可以解決RNN中的梯度消失問題?) RNN在每個時間點計算產生的輸出會直接把memory覆蓋掉 而LSTM每個時間點產生的輸出會對原來的memory進行累加 如果weight可以影響到memory中的值,則這個影響則一定會存在,因爲這個影響是累加
相關文章
相關標籤/搜索