GitHub標星3600:最會編故事的OpenAI語言模型,現已加入PyTorch BERT豪華陣容

獨角慄 發自 凹非寺
量子位 報道 

 左爲GPT-2,右爲BERT

上週,OpenAI腦洞天大的語言模型GPT-2,用獨角獸的故事震精了世界。python

谷歌BERT「史上最強」的位子沒坐多久,便有了光芒萬丈的後輩。git

現在,那個幫BERT作了PyTorch實現的團隊,已經火速在BERT項目裏增長了GPT-2支持,並收到了推特用戶的盛讚。github

看來,就算GPT-2只開源了縮小版,也值得珍惜,畢竟是有1.17億個參數的模型。web

都到碗裏來

十幾個小時前,名叫HuggingFace (抱抱臉) 的團隊,發佈了Pytorch-bert v0.6更新。微信

此次更新的內容,就是增長了GPT-2縮小版的預訓練模型,以及與模型搭配的經常使用腳本示例。學習

不過,爲OpenAI家的語言模型添加支持,在Pytorch-bert項目裏,已經不是第一次了:優化

一週前發佈的v0.5,就增長了GPT,那是GPT-2的上一代。url

同時增長的,還有谷歌的Transformer-XL,那是1月中旬發佈的語言模型,能夠理解超長的上下文關係,比普通Transformer快1800多倍spa

也就是說,地球上知名NLP模型的PyTorch實現,正在項目裏面不斷集結,場面一派祥和。.net

這個學名叫pytorch-pretrained-BERT的項目,已在GitHub上收集了3600多顆星

固然,項目的主業仍是BERT,有三個BERT模型提供:

第一個是原味BERT,第二個是帶序列分類器的BERT,第三個是帶token分類器的BERT (用來作問答) 。

來吧,抱抱臉

HuggingFace (「抱抱臉」) 團隊本來就是作聊天機器人的,因此主要的貢獻也在天然語言處理 (NLP) 領域。

除了BERT的PyTorch實現以外,團隊還發布過許多其餘的源代碼和友善的教程,也都是基於PyTorch。

好比,教你給NLP任務加速100倍:
https://medium.com/huggingface/100-times-faster-natural-language-processing-in-python-ee32033bdced

用PyTorch實現了從語言中識別情緒的DeepMoji模型:
https://github.com/huggingface/torchMoji

還用PyTorch實現了OpenAI優化過的Transformer模型:
https://github.com/huggingface/pytorch-openai-transformer-lm

因此,發生了GPT-2這樣的重大進展,「抱抱臉」天然是及時響應了。

管他OpenAI敢不敢開源15億參數的完整模型,管他要不要更名ClosedAI呢。

Pytorch-bert傳送門,GPT-2已加入:
https://github.com/huggingface/pytorch-pretrained-BERT


推薦閱讀

15億參數的NLP模型究竟有多強大?有人用它生成了一部《哈利·波特》


關於圖書

《深度學習之TensorFlow:入門、原理與進階實戰》和《Python帶我起飛——入門、進階、商業實戰》兩本圖書是代碼醫生團隊精心編著的 AI入門與提升的精品圖書。配套資源豐富:配套視頻、QQ讀者羣、實例源碼、 配套論壇:http://bbs.aianaconda.com   。更多請見:aianaconda.com


點擊「閱讀原文」配套圖書資源

本文分享自微信公衆號 - 相約機器人(xiangyuejiqiren)。
若有侵權,請聯繫 support@oschina.cn 刪除。
本文參與「OSC源創計劃」,歡迎正在閱讀的你也加入,一塊兒分享。

相關文章
相關標籤/搜索