BERT家族:XL-NET

XL-Net 論文:《XLNet: Generalized Autoregressive Pretraining for Language Understanding》緩存 論文地址:https://arxiv.org/pdf/1906.08237v1微信 做者/機構:CMU+google性能 年份:2019.6google XL-NET主要是經過改變MLM了訓練的方式,來提升Bert的性能,提出
相關文章
相關標籤/搜索