小白學深度之LSTM長短期記憶神經網絡

前言 不知道RNN的一定要先看看RNN的原理 在RNN中我們說了RNN的不足,也就是對較長的時間,或者較長的string,很多時候前面的數據對後面的數據影響就很小甚至沒影響了,這是我們就要加強前面的數據的權值;或者數據不是很長,但是最開始的數據對很往後的數據基本沒啥影響,但RNN記住了,並對後面的數據產生了影響,這時我們就要往往要增大近期數據的權值。 在本文中,我們將介紹一種改進之後的循環神經網絡
相關文章
相關標籤/搜索