20200302-20200308 閱讀論文筆記

Cross-Lingual Natural Language Generation via Pre-Training 問題:語言模型訓練需要大規模訓練數據,限制了在資源較少的語言上的應用------>跨語言預訓練,通過微調將單語言NLG監督轉移到其他經過預先訓練的語言。 跨語言生成:(1)要求模型理解多語言輸入文本,並生成多語言目標序列。(2)語言對與語言數量的平方成正比。(3)預測空間大。 模型
相關文章
相關標籤/搜索