BERT家族:K-BERT

K-BERT 論文:《K-BERT: Enabling Language Representation with Knowledge Graph》微信 論文地址:https://arxiv.org/pdf/1909.07606v1性能 做者/機構:北京大學+騰訊編碼 年份:2019.9spa K-BERT主要是爲了提高BERT在知識驅動任務上微調性能,因爲通用語料訓練的BERT模型在知識驅動型的任
相關文章
相關標籤/搜索