論文閱讀 Multi-Task Deep Neural Networks for Natural Language Understanding

這是今年arXiv上Microsoft Research的一篇文本embedding的文章,原文在Multi-task DNN。 這篇文章的思路很簡單,在BERT的基礎上,用multi-task learning對embedding layer進行fine-tuned,但在GLEU benchmark上的實驗結果非常好,九個NLU任務中八個的表現都有提升,benchmark提升了足足2.2%。 M
相關文章
相關標籤/搜索