「變形金剛」爲何強大:從模型到代碼全面解析Google Tensor2Tensor系統

  張金超_WXG_PRC   在這篇文章中: 第一章:概述 第二章:序列到序列任務與Transformer模型 2.1 序列到序列任務與Encoder-Decoder框架 2.2 神經網絡模型與語言距離依賴現象 2.3 self-attention機制的形式化表達 2.4 「Attention is All You Need」 第三章:Tensor2Tensor系統實現深度解析 3.1 使用篇
相關文章
相關標籤/搜索