Seq2Seq中的Attention和self-attention

Seq2Seq中的Attention和self-attention 一、Seq2Seq Model 首先介紹Seq2Seq模型,進而引入Attention機制。Seq2Seq模型的經典應用是語言模型,類似於語言翻譯的例子(英譯漢),Seq2Seq的目的就是將英文句子(輸入Sequence),轉換爲漢語句子(輸出Sequence),這裏的Sequence是由字(單詞)的序列。 這種Seq2Seq通常
相關文章
相關標籤/搜索