【DL小結4】seq2seq與attention機制

seq2seq概述 seq2seq模型是以編碼(Encode)和解碼(Decode)爲代表的架構方式,顧名思義是根據輸入序列X來生成輸出序列Y。encode意思是將輸入序列轉化成一個固定長度的向量(語義向量,context vector),decode意思是將語義向量解碼成輸出序列。 編碼階段 純粹的RNN/LSTM/GRU 解碼階段 由上圖可以發現Seq2seq中Decoder的公式和RNN基本
相關文章
相關標籤/搜索