論文筆記:BahdanauAttention和LuongAttention(注意力機制詳解)

前言 近日,閱讀了兩篇與attention機制相關的論文,爲了防止看了就忘,寫此文記錄論文中一些要點,方便日後回顧,也爲需要了解attention機制的朋友們提供一些參考。 兩篇論文提出的attention機制都是基於機器翻譯,實際上我們也可以應用於別處 論文地址 NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLA
相關文章
相關標籤/搜索