文獻閱讀筆記:Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer(T5)

文章目錄 0. 背景 0.1 摘要 1. 介紹 2. 模型 2.1 輸入和輸出格式 3. 實驗 3.1 baseline 3.2 對比的框架 3.3 無監督目標函數 3.4 預訓練數據集 3.5 訓練策略 3.5.1 微調策略 3.5.2 多任務學習 3.6 規模的影響 4. 總結和展望 展望 0. 背景 機構:谷歌 作者: Colin Raffel 發佈地方:arxiv 面向任務:自然語言理解
相關文章
相關標籤/搜索