機器翻譯之Facebook的CNN與Google的Attention

傳統的seq2seq facebook的cnn 結構 特點 position embedding 卷積的引入 GLU控制信息的流動 attention google的attention 結構 特點 KVQ的思維架構 multi-head attention attention的多種應用 參考資料 機器翻譯的常用架構是seq2seq,可是seq2seq中的核心模型RNN是序列模型,後面的計算依賴於前
相關文章
相關標籤/搜索