How to Fine-Tune BERT for Text Classification?讀論文

前言:本文來自復旦的團隊,主要探討了bert的進一步預訓練和微調來進行文本分類的內容。時值練習,那麼聊到分本分類的大殺器bert,所以找到了這篇文章。   焦點主要聚焦在具體方法上: 一、方法 1.可變的學習率 2.進一步預訓練(mask+nsp) 自己的數據集 同領域 跨領域 3.多任務   二、實驗結果 1.微調策略 ①長文本(>512) 截斷,頭510,尾510,,128頭+382尾   
相關文章
相關標籤/搜索