Transformer的潛在競爭對手QRNN論文解讀,訓練更快的RNN

來源:DeepHub IMBA 本文約2100字,建議閱讀5分鐘 本文我們將討論論文「擬遞歸神經網絡」中提出的QRNN模型。 使用遞歸神經網絡(RNN)序列建模業務已有很長時間了。但是RNN很慢因爲他們一次處理一個令牌無法並行化處理。此外,循環體系結構增加了完整序列的固定長度編碼向量的限制。爲了克服這些問題,諸如CNN-LSTM,Transformer,QRNNs之類的架構蓬勃發展。 在本文中,我
相關文章
相關標籤/搜索