論文筆記 | Modeling Intra-Relation in Math Word Problems with Different Functional Multi-Head Attentions

簡介 Jierui Li, Wang Lei 和 Dongxiang Zhang團隊發表在ACL19上的工作。主要使用不同功能的Multi-Head Attention來獲取不同類型對象的關係。 受到multi-head attention工作的啓發,作者設計了四種不同的attention機制: Global attention:以整個句子的表示作爲query, key和value,以獲取全局信息
相關文章
相關標籤/搜索