BERT+知識圖譜:北大-騰訊聯合推出知識賦能的K-BERT模型

作者丨周鵬 單位丨騰訊 研究方向丨自然語言處理、知識圖譜 背景 近兩年,谷歌 BERT 等無監督預訓練語言表示模型在多個 NLP 任務中均取得了可喜的成果。 這些模型在大規模開放域語料庫上進行了預訓練,以獲得通用的語言表示形式,然後在特定的下游任務中進行了微調,以吸收特定領域的知識。但是,由於預訓練和微調之間的領域差異,這些模型在知識驅動的任務上表現不佳。 例如,在醫療領域處理電子病歷(EMR)分
相關文章
相關標籤/搜索