BERT模型實戰之多文本分類(附源碼)

寫在前面 BERT模型也出來好久了,以前看了論文學習過它的大體模型(能夠參考前些日子寫的筆記NLP大殺器BERT模型解讀),可是一直有雜七雜八的事拖着沒有具體去實現過真實效果如何。今天就趁機來動手寫一寫實戰,順便復現一下以前的內容。這篇文章的內容仍是以比較簡單文本分類任務入手,數據集選取的是新浪新聞cnews,包括了[‘體育’, ‘財經’, ‘房產’, ‘家居’, ‘教育’, ‘科技’, ‘時尚’
相關文章
相關標籤/搜索