《Show, Attend and Tell: Neural Image Caption Generation with Visual Attention》閱讀筆記

這篇論文提出了Attention機制對於Encoder-Decoder進行改進。在Encoder-Decoder結構中,Encoder將輸入序列編碼爲 hn h n 。這樣做的一個潛在問題是,如果原始序列中包含的許多信息,而 hn h n 的長度又是一定的,那麼 hn h n 就存不下我們所需的所有信息。 利用Attention機制,Decoder可以在輸入序列中選取需要的特徵,提高了Encode
相關文章
相關標籤/搜索