深度學習--GRU(門控循環單元)原理詳解

上一篇中已經總結了RNN的原理,傳送門:https://blog.csdn.net/wenqiwenqi123/article/details/80704528 本文講解一下GRU的原理,GRU對於RNN中的梯度消失有很大幫助。GRU即Gated Recurrent Unit。爲了克服RNN無法很好處理遠距離依賴而提出了LSTM,而GRU則是LSTM的一個變體,當然LSTM還有有很多其他的變體。G
相關文章
相關標籤/搜索