XLNet 詳解(看不懂你來罵我)

B站視頻講解 「幹翻芝麻街」 2018 年,谷歌發佈了基於雙向 Transformer 的大規模預訓練語言模型BERT,刷新了 11 項 NLP 任務的最優性能記錄,爲 NLP 領域帶來了極大的驚喜。很快,BERT 就在圈內普及開來,也陸續出現了很多與它相關的新工作 BERT 帶來的震撼還未平息,來自卡耐基梅隆大學與谷歌大腦的研究者又提出新型預訓練語言模型 XLNet,在 SQuAD、GLUE、R
相關文章
相關標籤/搜索