高效Transformer層出不窮,谷歌團隊綜述文章一網打盡

選自arXiv 作者:Yi Tay 等 機器之心編譯 編輯:魔王 自 2017 年誕生以來,Transformer 模型在自然語言處理、計算機視覺等多個領域得到廣泛應用,並出現了大量變體。近期涌現的大量 Transformer 變體朝着更高效的方向演化,谷歌研究者對這類高效 Transformer 架構進行了綜述。 Transformer 是現代深度學習領域一股令人敬畏的力量,它廣泛應用於語言理解
相關文章
相關標籤/搜索