谷歌開源「窮人版」摘要生成NLP模型:訓練成本低,只要1000個樣本就能打敗人類...

曉查 發自 凹非寺  量子位 報道 | 公衆號 QbitAI BERT、GPT-2、XLNet等通用語言模型已經展現了強大的威力,它們可以應付各類任務,比如文本生成、問答。當這些模型對各種語言任務進行微調時,可以達到SOTA性能。 以上這些NLP模型都是「通才」,雖然全面,但在面向特定任務時需要微調,訓練數據集也十分龐大,非一般人所能承受。 如果開發一個非通用NLP模型,專門針對某項具體任務,在降
相關文章
相關標籤/搜索