Google新作synthesizer:Rethinking Self-Attention in Transformer Models

0. 背景 機構:Google Research 作者:Yi Tay, Dara Bahri, Donald Metzler, Da-Cheng Juan, Zhe Zhao, Che Zheng 論文地址:https://arxiv.org/abs/2005.00743 0.1 摘要 以當下基於Transformer的各種先進模型來看,使用點積自注意力(dot product self-atte
相關文章
相關標籤/搜索