深度學習-->NLP-->Seq2Seq Learning(Encoder-Decoder,Beam Search,Attention)

之前總結過 RNNLM ,是一個SequenceModel,其結構類似如下: 這裏面是一個一個的輸出。我們如果以這種方式做機器翻譯,每一個時刻輸入一個詞,相應的翻譯一個詞,顯然這種一個一個單詞的翻譯方式不是很好,因爲沒有聯繫上下文進行翻譯。我們希望先把一整句話餵給模型,然後模型在這一個整句的角度上來進翻譯。這樣翻譯的效果更好。 所以本篇博文要總結的是Seq2Seq Model,給出一個完整的句子,
相關文章
相關標籤/搜索