【論文速讀】Sharing Attention Weights for Fast Transformer

Sharing Attention Weights for Fast Transformer 2019, IJCAI. 這篇論文的主要思想是通過共享注意力權重來加速Transformer。(關於Transformer,網上已有很多優秀的解讀了,不瞭解的可以看看這篇。) 作者在10個公開數據集上進行了實驗,對比其他baselines,至少能夠提速1.3倍。 Introduction 由於Transf
相關文章
相關標籤/搜索