Neural Machine Translation by Jointly Learning to Align and....

前面的兩篇文章簡單介紹了seq2seq在機器翻譯領域的嘗試,效果令人滿意。上一篇也介紹到這一類問題可以歸納爲求解P(output|context)的問題,不同的地方在於context的構建思路不同,上兩篇中的seq2seq將context定義爲encoder的last hidden state,即認爲rnn將整個input部分的信息都保存在了last hidden state中。而事實上,rnn是
相關文章
相關標籤/搜索