利用RNN訓練Seq2Seq已經成爲過去,CNN纔是未來?

翻譯 | AI科技大本營(rgznai100) 參與 | Shawn、周翔 當前 seq2seq (序列到序列)學習慣用的方法是,藉助 RNN(循環神經網絡)將輸入序列轉變爲變長輸出序列(variable length output sequence),而 FAIR (Facebook AI Research)則提出了一種完全基於 CNN (卷積神經網絡)的架構。相比循環模型,其訓練過程中所有元素
相關文章
相關標籤/搜索