文獻閱讀筆記:XLNet: Generalized Autoregressive Pretraining for Language Understanding

0.背景 機構:谷歌大腦、CMU 作者:Zhilin Yang、Zihang Dai 發佈地方:arxiv 面向任務:Language Understanding 論文地址:https://arxiv.org/abs/1904.09482 論文代碼:https://github.com/zihangdai/xlnet 0-1. 摘要 由於上下文雙向建模的表達能力更強,降噪自編碼類型中的典型代表BE
相關文章
相關標籤/搜索