The Illustrated Transformer【譯】

前言 翻譯一篇非常讚的解釋Transformer的文章,原文鏈接。 在之前的文章中,Attention成了深度學習模型中無處不在的方法,它是種幫助提升NMT(Neural Machine Translation)的翻譯效果的思想。在本篇博客中,我們解析下Transformer,該模型擴展Attention來加速訓練,並且在Google的NMT中表現突出。然而,其最大的好處是可並行。實際上谷歌雲推薦
相關文章
相關標籤/搜索