Shusen Wang NLP課程學習筆記 Transformer + BERT

Transformer cyq總結,就是博主啦 attention without RNN Original paper Attention is All You Need. In NIPS, 2017 Transformer 是一個 Sep2Sep模型 Transformer不是RNN Transformer的效果完勝RNN,業界已經基本不用RNN了 文章目錄 Transformer Revie
相關文章
相關標籤/搜索