文獻閱讀筆記:XLNet: Generalized Autoregressive Pretraining for Language Understanding

0.背景 機構:谷歌大腦、CMU 做者:Zhilin Yang、Zihang Dai 發佈地方:arxiv 面向任務:Language Understanding 論文地址:https://arxiv.org/abs/1904.09482 論文代碼:https://github.com/zihangdai/xlnethtml 0-1. 摘要 因爲上下文雙向建模的表達能力更強,降噪自編碼類型中的典型
相關文章
相關標籤/搜索