帶Attention機制的Seq2Seq框架梳理

藉着與同事組內分享的機會,根據論文Neural Machine Translation By Jointly Learning to Align and Translate把帶Attention機制的Seq2Seq框架Encoder與Decoder部分的流程圖畫了一下,公式梳理了一遍。 Bi-RNN Encoder Encoder的流程如上圖所示,最終的輸出結果是每個時刻的hidden_state
相關文章
相關標籤/搜索