深度學習(21):seq2seq,注意力模型

seq2seq seq2seq在機器翻譯等領域十分好用。 我們將模型分成兩部分,首先構造一個RNN充當encoder,將漢語句子依次作爲輸入,生成一箇中間狀態。 然後構造另一個RNN充當decoder。初始輸入x是0,初始狀態是encoder的輸入。接下來每一次的輸入x都是上次的輸出,直到輸出終止符算法停止,得到翻譯出來的語句。 我們假設最終得到y1y2y3y4…yn這個翻譯結果。我們希望得到在原
相關文章
相關標籤/搜索