論文筆記(Attention 2)-----Effective Approaches to Attention-based Neural Machine Translation

上一篇attention介紹了Bahdanau等人提出的一種soft-attention模型。  Luong等人在此基礎上提出了兩種簡單且有效的方式:全局(global)和局部(local)的方式。所謂的global,就是指每次都關注整個source sentence,而local則是在每個時間t,只關注一部分source sentence。 Luong等人提出的global類似於Bahdanau
相關文章
相關標籤/搜索