Attention機制論文閱讀——global attention和local attention

論文名字:Effective Approaches to Attention-based Neural Machine Translation 這篇文章提出了兩種attention機制:全局attention機制和局部attention機制(區別在於關注的是所有encoder狀態還是部分encoder狀態) 文章中計算context向量的過程: 通過兩種attention機制得到上下文向量: Gl
相關文章
相關標籤/搜索