Seq2Seq模型

神經機器翻譯: 端到端的學習,先encoding 再decoding。  多模態模型學習實例:   seq2seq模型: 先用RN/LSTM編碼,生成meaning vector 然後再輸入RNN/LSTM解碼生成句子       seq2seq模型參數已知,生成新句子的過程:  
相關文章
相關標籤/搜索