ELECTRA - 比BERT更快更好的預訓練模型

論文:ELECTRA: Pre-training Text Encoders As Discriminators Rather Then Generators 本文目前在ICLR 2020盲審中,前幾天有審稿人發表文章對它大誇特誇,被稱爲19年最佳NLP預訓練模型,另外,在上週的智源北京人工智能大會上,Christopher Manning對這個工作也做了詳細介紹,那麼,已經不用匿名了,這就是Ma
相關文章
相關標籤/搜索