完勝BERT!NLP預訓練利器:小模型也有高精度,單個GPU就能訓練

2020-03-13 12:37:59 十三 發自 凹非寺 量子位 報道 | 公衆號 QbitAI 這款NLP預訓練模型,你值得擁有。 它叫ELECTRA,來自谷歌AI,不僅擁有BERT的優勢,效率還比它高。   ELECTRA是一種新預訓練方法,它能夠高效地學習如何將收集來的句子進行準確分詞,也就是我們通常說的token-replacement。 有多高效? 只需要RoBERTa和XLNet四分
相關文章
相關標籤/搜索