tensorflow之綜合學習系列實例之SEQ2SEQ+ATTENTION

本文繼續和大家一起學習一下在序列網絡中引入優化機制-注意力機制,如果在序列很長的情況下,不引入這個機制,識別效果是 不會太好的,首先還是看看seq2seq的基本知識: seq2seq就是把一個序列翻譯成另一個序列的模型,實質就是兩個rnn,一個是encoder,另一個是decoder,encoder負責將source序列編碼成固定長度的表達,decoder負責將該固定長度的表達解碼成target序
相關文章
相關標籤/搜索