【論文筆記】Effective Approaches to Attention-based Neural Machine Translation

論文鏈接    本文針對NMT任務使用的attention機制提出兩種結構,global attention將attention作用於全部輸入序列,local attention每個時間步將attention作用於輸入序列的不同子集。前者被稱爲soft attention,其原理和論文1一樣,後者是hard attention和soft attention的結合,該文通過context vecto
相關文章
相關標籤/搜索