Self Attention 自注意力機制

self attention是提出Transformer的論文《Attention is all you need》中提出的一種新的注意力機制,這篇博文僅聚焦於self attention,不談transformer的其他機制。Self attention直觀上與傳統Seq2Seq attention機制的區別在於,它的query和massage兩個序列是相等的。 廣義注意力機制 在談論self
相關文章
相關標籤/搜索