seq2seq+attention入門

前言 本來是要了解attention模型,因爲我自己的畢設主要在做分類,藉此機會瞭解一下attention模型,其實之前實習的時候有用過seq2seq模型,現在在博客中補上記錄。 1. seq2seq 1.簡介 seq2seq的介紹基本都是如下這張圖,這種結構首先就是爲了解決輸出也是一個序列的問題。比如機器翻譯,文本摘要等,它們輸入的是一段序列,輸出的同樣也是序列,所以採用了這種encoder+d
相關文章
相關標籤/搜索