UNILM翻譯

翻譯:*** 審覈:yphacker 原論文 論文代碼 UNILM翻譯 摘要 1. 介紹 2. 統一預訓練語言模型 2.1 輸入表示 2.2 主幹網:多層Transformer 2.3 預訓練目標 2.4 預訓練安裝 2.5 對下游NLU和NLG任務進行微調 3. 實驗 3.1 文本摘要 3.2問答(QA) 提取QA: 生成式 QA: 3.3 問題生成 3.4 基於對話生成 3.5 GLUE Be
相關文章
相關標籤/搜索