TensorFlow學習之LSTM ---機器翻譯(Seq2Seq + Attention模型)

1、理論知識 Seq2Seq模型的基本思想:使用一個循環神經網絡讀取輸入句子,將這個句子的信息壓縮到一個固定維度的編碼中;再使用另外一個循環神經網絡讀取這個編碼,將其「解壓」爲目標語言的一個句子。這兩個循環神經網絡分別稱爲編碼器(Encoder)和解碼器(Decoder),因此也稱爲 encoder-decoder 模型。 解碼器部分的結構與語言模型幾乎徹底相同:輸入爲單詞的詞向量,輸出爲soft
相關文章
相關標籤/搜索