自然語言生成任務,如文本摘要和圖像標題的生成。seq2seq的模型原理

我們使用x={x1,x2,…,xn}代表輸入的語句,y={y1, y2, …, yn}代表輸出的語句,yt代表當前輸出詞。在理解seq2seq的過程中,我們要牢記我們的目標是: (1) 即輸出的yt不僅依賴之前的輸出{y1, y2, …, yt−1},還依賴輸入語句x,模型再怎麼變化都是在公式(1)的約束之下。 seq2seq最初模型 最早由bengio等人發表在computer science上
相關文章
相關標籤/搜索