谷歌 | 大改Transformer注意力,速度、內存利用率都大幅度提升(附源代碼)

歡迎關注「 計算機視覺研究院 」 計算機視覺研究院專欄 作者:Edison_G 長按掃描二維碼關注我 回覆「谷歌」獲取源代碼 簡述: Google介紹了Performance,Transformer體系結構,它可以估計具有可證明精度的正則(Softmax)full-rank-attention Transformers,但只使用線性(相對於二次)空間和時間複雜度,而不依賴任何先驗,如稀疏性或低秩。
相關文章
相關標籤/搜索