Gated Recurrent Unit(GRU)

Gated Recurrent Unit(GRU) 在上一篇博客裏介紹了LSTM(Long Short-Term Memory),博客地址:LSTM(Long Short-Term Memory)。LSTM相比較最基本的RNN,在NLP的很多應用場景下都表現出了很好的性能,至今依然很常用。但是,LSTM存在一個問題,就是計算開銷比較大,因爲其內部結構相對複雜。GRU 也是爲了旨在解決標準 RNN
相關文章
相關標籤/搜索