張俊林:BERT和Transformer到底學到了什麼 | AI ProCon 2019

演講嘉賓 | 張俊林(新浪微博機器學習團隊AI Lab負責人) 編輯 | Jane 出品 | AI科技大本營(ID:rgznai100) 【導讀】BERT提出的這一年,也是NLP領域迅速發展的一年。學界不斷提出新的預訓練模型,刷新各項任務指標,業界也不斷嘗試在工程問題中引用BERT、XLNet等預訓練模型,那BERT爲什麼能有這麼好的效果,深入其原理本身,又究竟好在哪裏?在AI ProCon 20
相關文章
相關標籤/搜索