Attention專場——(2)Self-Attention 代碼解析

文章目錄 1. 參考資料 2. 模型架構 2.1 Encoder and Decoder Stacks 2.1.1 通用類 2.1.1.1 層的複製函數 2.1.1.2 LayerNorm類 2.1.1.3 sublayer之間的鏈接方式 2.1.4 Encoder 2.1.4.1 EncodeLayer類 2.1.5 Decoder 2.3 Attention 2.3.1 Attention方式
相關文章
相關標籤/搜索