[預訓練語言模型專題] BERT,開啓NLP新時代的王者

本文爲預訓練語言模型專題系列第五篇 前期回顧:[萌芽時代]、[風起雲涌]、[文本分類通用技巧] 、[GPT家族] 感謝清華大學自然語言處理實驗室對預訓練語言模型架構的梳理,我們將沿此脈絡前行,探索預訓練語言模型的前沿技術,紅色框爲前期腳印,綠色框爲本期介紹,歡迎大家留言討論交流。   BERT: Pre-training of Deep Bidirectional Transformers for
相關文章
相關標籤/搜索