論文淺嘗 | Enriching Pre-trained Language Model with Entity Information for Relation Classification

論文針對句子級別的關係抽取問題提出了一種結合BERT預訓練模型和目標實體信息的模型。 1. 文章主要貢獻 提出將 BERT 用在了關係抽取任務, 探索了實體和實體位置在預訓練模型中的結合方式。 可以通過在實體前後加標識符得方式表明實體位置, 代替傳統位置向量的做法,論文也證實了這種方法得有效性。 2. 論文模型詳解 2.1 數據預處理 1)針對輸入進來的句子,需要在句首增加[cls]符號 2)在第
相關文章
相關標籤/搜索