Transformer中的自注意力

Transformer中的自注意力 參考鏈接https://blog.csdn.net/u012526436/article/details/86295971 self-attention,其思想和attention類似,但是self-attention是Transformer用來將其他相關單詞的「理解」轉換成我們正在處理的單詞的一種思路,我們看個例子: The animal didn’t cro
相關文章
相關標籤/搜索