BERT家族:ERNIE

ERNIE 論文:《ERNIE: Enhanced Representation from kNowledge IntEgration》 論文地址:https://arxiv.org/pdf/1904.09223v1 作者/機構:百度 年份:2019.3 ERNIE對Bert的改進主要體現在mask的方式上,將中文單字的mask改爲連續的實體詞和短語mask,事Bert能夠學習到真實世界的語義知識
相關文章
相關標籤/搜索