【精讀Paper】BERT:NLP 新範式

二月出了 ELMo,六月出了 OpenAI Transformer,十月又出了BERT,下半年開始的這場預訓練語言模型的火,越燃越大啊,但願能燒出 CV 那樣的 baseline。 不得不說,Jacob 的這篇 BERT 真是大手筆,massive data + massive model + massive computation,踏平了 N 多 task,稱得上 NLP 新範式了。固然,常人基
相關文章
相關標籤/搜索