【深度之眼tensorflow2.0框架項目班】31.LSTM和GRU動圖理解

原文地址     因爲傳統的RNN模塊會受到短期記憶的影響,當序列過長的時候,靠前的信息很難傳遞到後邊的時間步,因此,當我們使用RNN處理文本進行預測的時候,會遺漏很多重要信息,除此之外,當網絡過長的時候,反向傳播的過程中會出現梯度消失的問題,梯度消失以後,參數也就不會在更新。因此我們有了LSTM和GRU。     LSTM 和 GRU 是解決短時記憶問題的解決方案,它們具有稱爲「門」的內部機制,
相關文章
相關標籤/搜索