刷新中文閱讀理解水平,哈工大訊飛聯合發佈基於全詞覆蓋中文BERT預訓練模型...

做者 | HFLgit 來源 | 哈工大訊飛聯合實驗室(ID:rgznai100)程序員 爲了進一步促進中文天然語言處理的研究發展,哈工大訊飛聯合實驗室發佈基於全詞覆蓋(Whole Word Masking)的中文BERT預訓練模型。咱們在多箇中文數據集上獲得了較好的結果,覆蓋了句子級到篇章級任務。同時,咱們對現有的中文預訓練模型進行了對比,而且給出了若干使用建議。咱們歡迎你們下載試用。 下載地址
相關文章
相關標籤/搜索