Seq2Seq with Attention

論文: 官方實現:Neural Machine Translation with Attention 李宏毅視頻講解:Attention based model 傳統的的Seq2Seq,他的Decoder 部分輸入是:Encoder的ouput和state以及一個zero,如下圖所示,這在翻譯長文本的時候可能導致部分記憶的丟失,作爲改進,大神引入了一個Attention機制。 Attention機
相關文章
相關標籤/搜索