【深度學習】各種注意力機制:encoder-decoder,self-attention,multi-head attention的區別

最近以QA形式寫了一篇nlp中的Attention注意力機制+Transformer詳解 分享一下自己的觀點,目錄如下: 一、Attention機制剖析 1、爲什麼要引入Attention機制? 2、Attention機制有哪些?(怎麼分類?) 3、Attention機制的計算流程是怎樣的? 4、Attention機制的變種有哪些? 5、一種強大的Attention機制:爲什麼自注意力模型(sel
相關文章
相關標籤/搜索