淺談Seq2Seq模型

最近在閱讀論文《Attention is all you need》的時候瞭解到了這個Seq2Seq模型,其最基本的原理及其思想就是RNN(循環神經網絡的)的一個最重要的變種:N vs M,這種結構也叫Encoder-Decoder模型。原始的N vs N RNN要求序列等長,然而我們遇到的大部分問題序列都是不等長的,如機器翻譯中,源語言和目標語言的句子往往並沒有相同的長度。   舉一個很簡單的翻
相關文章
相關標籤/搜索