attention 機制 源碼篇

文章目錄 1.整體結構 2.編碼部分(Input) 2.1.input embedding 2.2.Positional encoding 2.3.Multi-head attention 2.4.Add&Norm 2.5.FeedForward 2.6.Add&Norm 2.7.編碼Block Loop 3.解碼 3.1.target sequence embedding 3.2.Positio
相關文章
相關標籤/搜索