【NLP】語言模型和遷移學習

10.13 Update:最近新出了一個state-of-the-art預訓練模型,傳送門:git 李入魔:【NLP】Google BERT詳解​zhuanlan.zhihu.com 1. 簡介 長期以來,詞向量一直是NLP任務中的主要表徵技術。隨着2017年末以及2018年初的一系列技術突破,研究證明預訓練的語言表徵通過精調後能夠在衆多NLP任務中達到更好的表現。目前預訓練有兩種方法:githu
相關文章
相關標籤/搜索