Transformer中的Attention

Transformer中的Attention Introduction 讀attention is all you need該論文有感。 這篇論文是谷歌17年在機器翻譯任務中提出的一種新的序列轉換模型」Transformer「。傳統的序列轉換模型是用RNN和CNN做的,爲了使這些模型表現的更好,通常還加入了attention,也就是注意力機制。本文提出的transformer模型,完全摒棄了RNN
相關文章
相關標籤/搜索