Some Papers about BERT in Text Classifition, Data Augmentation and Document Ranking(一)

BERT用於各項任務示意圖: 從BERT出現到現在的廣泛使用,以BERT爲代表的預訓練模型所提出的pre-traing + fine-tune兩階段的方法逐漸成爲了很多涉及文本數據領域處理問題的新範式,例如文本分類、閱讀理解、數據增廣、問答系統和信息檢索等。同時爲了更好的提升BERT在所處理任務上的性能,以及更好的減小模型容量的同時又不至於損失模型的性能,不同的研究人員紛紛提出了BERT的多種變體
相關文章
相關標籤/搜索