IJCAI2020論文:上下文在神經機器翻譯中的充分利用

來自:南大NLP 01 — 研究動機 目前,主流的神經機器翻譯模型(Neural Machine Translation, NMT)通常是句子級別的,往往以單個句子爲單位進行翻譯。但是在實際情況下,我們往往希望機器翻譯能連貫地翻譯整個篇章文本,而句子級別的模型顯然沒辦法去考慮篇章中句子之間的依賴關係和貫穿全局的上下文信息。例如,一篇文章的主題往往不能被句子級別的模型所建模,從而導致不連貫的篇章翻譯
相關文章
相關標籤/搜索