BERT家族:XL-NET

XL-Net 論文:《XLNet: Generalized Autoregressive Pretraining for Language Understanding》 論文地址:https://arxiv.org/pdf/1906.08237v1 作者/機構:CMU+google 年份:2019.6 XL-NET主要是通過改變MLM了訓練的方式,來提高Bert的性能,提出了自迴歸(AR,auto
相關文章
相關標籤/搜索