性能堪比GPT-3,但參數量僅爲0.1%,LMU團隊推出NLP最強文本生成模型

 2020-09-24 04:21:08 作者 | 貝爽 編輯 | 陳彩嫺 模型越大,性能越佳?不一定。 在NLP領域,談到超大模型必然想到預訓練語言模型GPT-3,自今年3月份對外開放以來,其因超大模型和超強性能頻頻刷屏。 GPT-3擁有1750億參數量,約有700G大小,一次訓練成本高達上百萬美元。1750億是什麼概念?去年2月份,OpenAI推出的GPT-2參數量爲僅15億,是它的1\116
相關文章
相關標籤/搜索