【論文筆記】Attention is all you need

在閱讀本文之前,關於self-attention的詳細介紹,比較全面的transformer總結看之前copy的這篇文章。 有了self-attention的基礎之後再看這篇論文,感覺就容易了。 論文:Attention is all you need。 文章目錄 1-2 Introduction & Background 3 Model Architecture 3.1 Encoder and
相關文章
相關標籤/搜索