[預訓練語言模型專題] 銀色獨角獸GPT家族

本文爲預訓練語言模型專題系列第四篇 前期回顧:[萌芽時代]、[風起雲涌]、[文本分類通用訓練技巧] 感謝清華大學自然語言處理實驗室對預訓練語言模型架構的梳理,我們將沿此脈絡前行,探索預訓練語言模型的前沿技術,紅色框爲前期腳印,綠色框爲本期介紹,歡迎大家留言討論交流! SHOCKING 在具體看論文之前,我們先來看看GPT-2,也是GPT家族巨人的驚人表現做一個開胃菜。在一個生成式任務上,OpenA
相關文章
相關標籤/搜索