seq2seq模型理解

聲明:本文在paddle book NMT一節的基礎上進行了補充,解釋decoder cost、attention模型中的對齊公式、decoder引入word embedding,以及深層RNN的一種方式。 一、模型結構圖 二、Encoder 編碼階段分爲三步: one-hot vector表示:將源語言句子的每個詞表示成一個列向量,這個向量的維度與詞彙表大小相同,並且只有一個維度上有值1其餘全是
相關文章
相關標籤/搜索