論文筆記——Attention Is All You Need(Transformer)

文章目錄 動機 模型 Encoder Decoder 總結 之前看了Google發表的Transformer的相關論文,雖然距離論文發表已經過去了三年,但是Transformer的效果仍然沒有被超越。爲了讓自己之後能夠迅速回憶起Transformer的相關內容,所以記錄了這篇論文筆記記錄一下自己閱讀論文的筆記。 動機 在Transformer提出之前,正常情況下都是使用RNN模型來處理機器翻譯任務
相關文章
相關標籤/搜索