【NLP】ALBERT:更輕更快的NLP預訓練模型

目前在NLP領域,出彩的預訓練模型的新工作,幾乎都是基於BERT的改進,前面我們就介紹了XLNET。今天我來介紹一個更新的工作,相比於BERT,它更輕量,效果也要好。 作者&編輯 | 小Dream哥 1 預訓練模型進展 2018年底,BERT橫空出世之後,預訓練模型開始走進NLP舞臺的中央,吸引了業內所有人的關注。之後,各種預訓練模型開始不斷的刷新NLP領域的SOTA榜單,比較有影響力的包括,GP
相關文章
相關標籤/搜索