LSTM相比通常RNN的優點

LSTM 是爲了解決 RNN 的 Gradient Vanish 的問題所提出的。算法 LSTM如何避免梯度消失?優化   LSTM只能避免RNN的梯度消失(gradient vanishing),可是不能對抗梯度爆炸問題(Exploding Gradient)。spa 梯度膨脹(gradient explosion)不是個嚴重的問題,通常靠裁剪後的優化算法便可解決,好比gradient clip
相關文章
相關標籤/搜索