Effective Approaches to Attention-based Neural Machine Translation之每日一篇

論文地址:http://www.cs.cmu.edu/~ark/EMNLP-2015/proceedings/EMNLP/pdf/EMNLP166.pdf 概述: 本文針對NMT任務是用attention機制提出兩種結構,global attention將attention作用於全部輸入序列,local attention每個時間步將attention作用於輸入序列的不同子集。前者被稱爲soft
相關文章
相關標籤/搜索