再話RNN,LSTM(雙向RNN)幫助你一次記住LSTM!!

再話RNN,LSTM(雙向RNN) 之前寫了一篇關於RNN,LSTM,GRU的公式推導以及前向傳播的文章,但是後來發現,當時自己寫的時候挺清楚的,後來過段時間就忘了,看來還是理解的不夠啊。所以今天這篇文章寫一下,到底什麼是RNN,LSTM。 首先,大家都知道,RNN解決的就是神經網絡記憶的問題。因爲RNN網絡的有一個臨時的輸入,所以可以很好地記憶住之前的信息。 但是,在進行BPTT(rnn的反向傳
相關文章
相關標籤/搜索