Multi-Task Label Embedding for Text Classification(MTLE)(ACL-2018)

論文名字:Multi-Task Label Embedding for Text Classification 動機 文本分類中的多任務學習利用相關任務之間的隱式關聯來提取共同特徵並獲得性能增益。然而,以往的研究大多將每個任務的標籤視爲獨立的、無意義的one-hot向量,導致潛在信息的丟失,使得這些模型很難聯合學習三個或更多個任務。 預學習概念 文本分類是一種常見的自然語言處理任務,它試圖爲給定的
相關文章
相關標籤/搜索