超詳細中文預訓練模型ERNIE使用指南

做者 | 高開遠,上海交通大學,天然語言處理研究方向html 最近在工做上處理的都是中文語料,也嘗試了一些最近放出來的預訓練模型(ERNIE,BERT-CHINESE,WWM-BERT-CHINESE),比對以後仍是以爲百度的ERNIE效果會比較好,並且使用十分方便,因此今天就詳細地記錄一下。但願你們也都能在本身的項目上取得進展~ git 一、A Glance at ERNIEgithub 關於E
相關文章
相關標籤/搜索