【PTM】XLNet:通過廣義自迴歸預訓練改善語言理解

今天學習的是谷歌大腦的同學和 CMU 的同學的論文《XLNet: Generalized Autoregressive Pretraining for Language Understanding》,於 2019 年發表於 NIPS,目前引用超 300 次。 XLNet 是一個廣義自迴歸預語言模型,它在 Transformer-XL 的基礎上引入了排列語言模型(Permutation Langua
相關文章
相關標籤/搜索