理解注意力機制好文

注意力(Attention)機制,是神經機器翻譯模型中非常重要的一環,直接影響了翻譯的準確度與否。 可以這麼說,沒有注意力機制,機器翻譯的水平只有60-70分。有了注意力機制,翻譯的水平就能夠達到80-90分了。 它是如何發揮作用的呢?很多人一解釋起來,就是鋪天蓋地的數學公式,讓人還沒來得及看,就直接懵逼了。 最近,有一篇文章用圖解的方式,完整地介紹了「注意力機制」的原理邏輯,並以谷歌神經翻譯爲例
相關文章
相關標籤/搜索