「炫富」的GPT-3來了:31位作者,45TB數據,72頁論文,1750億個參數,會編故事,還會三位數加減法...

魚羊 發自 凹非寺  量子位 報道 | 公衆號 QbitAI 那個語言模型又迭代了,現在有1750億個參數。 這個讓英偉達狂喜,讓調參師流淚的數字來自OpenAI,史上最大AI語言模型—— GPT-3。 單單論文就有72頁。 OpenAI表示,通過GPT-3,他們證明了無需梯度更新,無需微調,規模更大的語言模型就可以大大改善無關任務和小樣本(few-shot)學習的性能,達到最先進微調方法的水準。
相關文章
相關標籤/搜索