[預訓練語言模型專題] 百度出品ERNIE合集,問國產預訓練語言模型哪家強

本文爲預訓練語言模型專題系列第七篇 系列傳送門     [萌芽時代]、[風起雲涌]、[文本分類通用技巧] 、 [GPT家族]、[BERT來臨]、[BERT代碼淺析]   感謝清華大學自然語言處理實驗室對預訓練語言模型架構的梳理,我們將沿此脈絡前行,探索預訓練語言模型的前沿技術,紅框中爲已介紹的文章,綠框中爲本期介紹的文章,歡迎大家留言討論交流。   ERNIE: Enhanced Represen
相關文章
相關標籤/搜索