NLP中的Attention總結

Attention是模擬人腦的注意力機制。人在看到一些東西,往往只關注重要的信息,而忽略其他信息。自然語言處理中的attention是對文本分配注意力權重,Attention的本質就是從關注全部變爲關注重點。 1 Attention的原理 Attention的計算過程: query和key向量進行相似度計算,得到權重。 將得到的權值進行歸一化,得到每個key的歸一化權重。 根據權重,對value進
相關文章
相關標籤/搜索