《Neural Machine Translation by Jointly Learning to Align and Translate》閱讀筆記

個人總結 本文最大貢獻是提出了注意力機制,相比於之前 NMT(Neural Machine Translation) 把整個句子壓縮成一個固定向量表示的方法,對不同位置的目標單詞計算每個輸入的不同權重,這樣能夠更好地捕捉目標詞相關的輸入信息。 ABSTRACT 最近的 NMT 模型是 encoder-decoder 架構,編碼器將源句子編碼爲固定長度的向量,解碼器根據該向量生成翻譯。本文推測原句編
相關文章
相關標籤/搜索