RNN(recurrent neural network regularization)

論文:https://arxiv.org/pdf/1409.2329.pdf 摘要: 論文爲RNN中的LSTM單元提出一個簡單的調整技巧,dropout在調整神經網絡中取得非常大的成功,但是在RNN(循環神經網絡)和LSTM中表現不好。論文展示瞭如何正確的在LSTM中應用dropout,並且顯示出該技巧能夠顯著減少過擬合現象。 介紹: 循環神經網絡(RNN)是一個連續神經網絡,用於解決語言模型、語
相關文章
相關標籤/搜索