文獻閱讀:Improving Multi-Task Deep Neural Networks via Knowledge Distillation for Natural Language Under

0.背景 機構:微軟亞洲研究院 NLP 組與 SDRG(微軟雷德蒙德語音對話研究組) 做者:Xiaodong Liu、Pengcheng He 發佈地方:arxiv 面向任務:知識蒸餾 論文地址:https://arxiv.org/abs/1904.09482 論文代碼:https://github.com/namisan/mt-dnnhtml 0.摘要 儘管集成學習可以提高模型性能,且目前已被普
相關文章
相關標籤/搜索