谷歌 | 最新110億參數的T5模型17項NLP任務霸榜SuperGLUE!

  新智元報道   來源:github 谷歌在最新發布的論文《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》提出了一個新的預訓練模型:T5。該模型涵蓋了問題解答,文本分類等方面,參數量達到了110億!一舉超越ALBERT,刷新Glue榜單,成爲全新的NLP SOTA預訓練模型。 榜
相關文章
相關標籤/搜索