【論文筆記】Multi-task Learning with Sample Re-weighting for Machine Reading Comprehension(2019,NAACL)

這篇論文主要提出了一種多任務學習(Muti-Task Learning, MTL)運用於MRC技術時,以「給輔助數據集添加權重」的方式來衡量數據可能的貢獻,以此也防止非領域數據對模型的污染,其中自動添加權重的思路非常巧妙,值得學習。 1.介紹 作者認爲相對於模型龐大的參數量,數據集還是太小了。 實際上已經不算小了,但對於一些領域特定的數據集,確實還是沒有足夠的數據量。 因此,作者把目光頭像了MTL
相關文章
相關標籤/搜索