Seq2Seq系列(三):attention mechanism

論文鏈接:Neural Machine Translation by Jointly Learning to Align and Translate 這是介紹Seq2Seq系列的第三篇文章,主要講帶有attention機制的Seq2Seq模型。 首先,作者回顧了一下RNN Encoder-Decoder模型: ht=f(xt,ht−1) c=q(h1,...,hTx) p(y)=∏t=1Tp(yt
相關文章
相關標籤/搜索