文獻閱讀筆記:Unsupervised Cross-lingual Representation Learning at Scale(XLM-R)

文章目錄 0. 背景 0.1 摘要 1. 介紹 2. 相關工作 3. 模型和數據 4. 評測 5. 結果與分析 5.1 多語言Masked Language Models 5.2 跨語言理解的實驗結果 5.3 多語言 Vs 單語種 GLUE:XLM-R versus RoBERTa XNLI: XLM versus BERT 5.4 在低資源語種上的表現 6. 總結 0. 背景 機構:Facebo
相關文章
相關標籤/搜索