nlp複習--seq2seq & attention

seq2seq seq2seq又叫Encoder-Decoder模型。它可以實現從一個序列到任意一個序列的轉換,模型如下所示,其左半部分爲Encoder部分,右半部分爲Decoder部分。 在翻譯的應用中,可以理解爲看完一個句子,提煉出它的大意 Seq2Seq模型中的向量 c就代表着context vector,即含有所有輸入句信息的向量。 缺點 基礎的Seq2Seq有一些缺點,因爲Encoder
相關文章
相關標籤/搜索