站在BERT肩膀上的NLP新秀們(PART I)

寫在前面 去年NLP領域最火的莫過於BERT了,得益於數據規模和計算力的提升,BERT在大會規模語料上預訓練(Masked Language Model + Next Sentence Prediction)之後可以很好地從訓練語料中捕獲豐富的語義信息,對各項任務瘋狂屠榜。 我們在對BERT進行微調之後可以很好地適用到自己的任務上,具體可以參考之前一篇BERT簡單應用:BERT模型實戰之多文本分類
相關文章
相關標籤/搜索