論文翻譯:Attention is all you need

Attention is all you need 摘要 主要的序列轉換模型基於複雜的遞歸或卷積神經網絡,包括編碼器和解碼器。性能最好的模型還通過注意力機制連接編碼器和解碼器。我們提出了一種新的簡單的網絡體系結構Transformer,它完全基於注意力機制,完全不需要重複和卷積。在兩個機器翻譯任務上的實驗表明,這些模型在質量上更優越,同時更具並行性,需要的訓練時間明顯減少。我們的模型在2014年W
相關文章
相關標籤/搜索