性能堪比GPT-3,但參數量僅爲0.1%,LMU團隊推出NLP最強文本生成模型

公衆號關注 「ML_NLP」 設爲 「星標」,重磅乾貨,第一時間送達! 來源 | AI科技評論 作者 | 貝爽 編輯 | 陳彩嫺 模型越大,性能越佳?不一定。 在NLP領域,談到超大模型必然想到預訓練語言模型GPT-3,自今年3月份對外開放以來,其因超大模型和超強性能頻頻刷屏。 GPT-3擁有1750億參數量,約有700G大小,一次訓練成本高達上百萬美元。1750億是什麼概念?去年2月份,Open
相關文章
相關標籤/搜索