關於天然語言的bert論文和推薦kashgari庫

2018年末最近谷歌發佈了基於雙向 Transformer 的大規模預訓練語言模型,該預訓練模型能高效抽取文本信息並應用於各類 NLP 任務,該研究憑藉預訓練模型刷新了 11 項 NLP 任務的當前最優性能記錄。若是這種預訓練方式能經得起實踐的檢驗,那麼各類 NLP 任務只須要少許數據進行微調就能實現很是好的效果,BERT 也將成爲一種名副其實的骨幹網絡。git 關於bert開源的github地址
相關文章
相關標籤/搜索