淺談seq2seq中的Attention機制

1.Attention機制的提出: Attention模型最早是在計算機視覺領域提出,首次用於解決nlp問題在2014年[1]。由於seq2seq中的原始輸入序列中的單詞對於目標輸出序列的重要性程度是一致的,當輸入序列過長時,此模型的效果將會降低。 比如,在機器翻譯方面,對於輸入序列爲「自」,「然」,「語」,「言」,生成的輸出序列爲「Natural」,「Language」。事實上,我們發現,「自」
相關文章
相關標籤/搜索