K-Bert(2019北大與騰訊聯合發表)

代碼地址:https://github.com/autoliuweijie/K-BERT 問題提出: 預訓練的語言表示模型,如BERT,從大規模語料庫中獲取一個通用的語言表示,但缺乏特定領域的知識。在閱讀領域文本時,專家會根據相關知識進行推理。爲了使機器能夠實現這一能力,提出了一種基於知識圖(KGs)的知識支持語言表示模型(K-BERT),其中三元組作爲領域知識注入到句子中。然而,過多的知識融合會
相關文章
相關標籤/搜索