「炫富」的GPT-3來了:31位做者,45TB數據,72頁論文,1750億個參數,會編故事,還會三位數加減法...

魚羊 發自 凹非寺  量子位 報道 | 公衆號 QbitAI 那個語言模型又迭代了,如今有1750億個參數。git 這個讓英偉達狂喜,讓調參師流淚的數字來自OpenAI,史上最大AI語言模型——github GPT-3。架構 單單論文就有72頁。性能 OpenAI表示,經過GPT-3,他們證實了無需梯度更新,無需微調,規模更大的語言模型就能夠大大改善無關任務和小樣本(few-shot)學習的性能,
相關文章
相關標籤/搜索