動態記憶網絡:向通用 NLP 更近一步

https://www.toutiao.com/a6691803113575154190/   本文需要讀者對諸如 LSTM 和 GRU(包括 seq2seq 編碼器 - 解碼器架構)之類的遞歸神經網絡有一定的基礎。 衆所周知,通用 NLP 的一大障礙是不同的任務(例如文本分類,序列標記和文本生成)需要不同的序列結構。 解決這個問題的一種方法是將這些不同的任務看作是問答形式的問題。比如,文本分類問
相關文章
相關標籤/搜索