更小的模型!邁向更快更環保的NLP

作者 | Manuel Tonneau 整理 | NewBeeNLP 越大的模型總是越好嗎  寫在前面 長期以來,在屠虐各大排行榜的驅動下,NLP players對此問題的答案似乎是肯定的。從Google於2018年10月發佈「BERT」(base版本爲1.1億個參數)到Salesforce於2019年9月發佈的「CTRL」(16.3億個參數),直到微軟最近發佈的「T-NLG」(170億個參數),
相關文章
相關標籤/搜索