逆天語言模型GPT-2最新開源:345M預訓練模型和1.5B參數都來了

銅靈 發自 凹非寺 量子位 出品 | 公衆號 QbitAI 逆天的語言模型GPT-2又有最新開源進展了!git GPT-2,這個造假新聞編故事以假亂真,能完成閱讀理解、常識推理、文字預測、文章總結等多種任務的AI模型,從誕生開始就引發大量關注。github 但因一開始只放出了117M的小型預訓練模型,OpenAI還被網友調侃爲「ClosedAI」。OpenAI表示,不是不開源,而是時候未到。算法
相關文章
相關標籤/搜索