BERT家族:SemBert

SemBert 論文:《Semantics-aware BERT for Language Understanding》微信 論文地址:https://arxiv.org/pdf/1909.02209性能 做者/機構:上海交通大學+雲從科技spa 年份:2019.9blog SemBERT是將語義角色標註(SRL,Semantic Role Labeling)信息結合進去,來提升BERT的性能。K
相關文章
相關標籤/搜索