attention機制詳解

原論文:Neural Machine Translation by Jointly Learning to Align and Translate 參考博客:https://blog.csdn.net/shijing_0214/article/details/75194103 注意一點:這篇論文把輸入端隱含層狀態稱爲註釋h,輸出端隱含層狀態稱爲隱含層狀態s 叫法不同,其實都是隱含層狀態   沒有引
相關文章
相關標籤/搜索