Transformer結構

文章目錄 Transformer結構 0. RNN的缺點 1. 整體結構域 2. Encoder部分 2.1. multi-head-Attention層 2.1.1 插入講解self-attention 2.1.2. 回到多頭 2.2. 全連接層 3. Decoder部分 4. Generator部分 5. Positional Encoding 參考文獻: Transformer結構 與Ber
相關文章
相關標籤/搜索