ICLR 2020 | 拋開卷積,multi-head self-attention能夠表達任何卷積操作

近年來很多研究將nlp中的attention機制融入到視覺的研究中,得到很不錯的結果,於是,論文側重於從理論和實驗去驗證self-attention可以代替卷積網絡獨立進行類似卷積的操作,給self-attention在圖像領域的應用奠定基礎 論文: On the Relationship between Self-Attention and Convolutional Layers 論文地址:h
相關文章
相關標籤/搜索