關於Sequence2Sequence模型/RNN/LSTM/attention機制

Sequence2Sequence: 輸入:序列A 輸出:序列B 黑盒子即我們說的encoder-decoder結構,用來實現序列到序列的轉換。 那麼encoder-decoder結構爲啥用RNN呢? ——RNN 看一下RNN的構造: RNN設計爲接受兩個輸入:「當前的輸入」和以前所有輸入的「整體記憶」 cell接受了上面兩個輸入之後,就會吐出一個輸出,更新一下整體記憶。 它把對序列的整體記憶以隱
相關文章
相關標籤/搜索