EMNLP 2017 NMT with word prediction

文章鏈接:https://arxiv.org/abs/1708.01771 概述: 這篇文章針對傳統的seq2seq模型decoder端的改進。 針對解決的問題: 1.傳統的seq2seq模型,encoder端通過一個雙向的LSTM或者GRU,生成一個固定維度的向量用來表示源端信息,我們用這個向量initial_state來表示源端的信息。因此源端所形成的initial_state在整個翻譯過程中
相關文章
相關標籤/搜索