BERT家族:ERNIE

ERNIE 論文:《ERNIE: Enhanced Representation from kNowledge IntEgration》微信 論文地址:https://arxiv.org/pdf/1904.09223v1性能 做者/機構:百度學習 年份:2019.3spa ERNIE對Bert的改進主要體如今mask的方式上,將中文單字的mask改成連續的實體詞和短語mask,事Bert可以學習到
相關文章
相關標籤/搜索