NLP_task9: Attention

1  Attention基本原理       在「Neural Machine Translation By Jointly Learning To Align And Translate」中,爲解決RNN-Encoder-Decoder的基礎上target端輸入固定長度的問題,提出了Align方式,這也是Attention的開始。這篇paper中,它將輸入句子編碼成一系列向量,並在解碼翻譯時自適
相關文章
相關標籤/搜索