繼BERT之後,這個新模型再一次在11項NLP基準上打破紀錄

自 BERT 打破 11 項 NLP 的記錄後,可應用於廣泛任務的 NLP 預訓練模型就已經得到大量關注。最近微軟推出了一個綜合性模型,它在這 11 項 NLP 任務中超過了 BERT。目前名爲「Microsoft D365 AI & MSR AI」的模型還沒有提供對應的論文與項目地址,因此它到底是不是一種新的預訓練方法也不得而知。 BERT 和微軟新模型都採用了通用語言理解評估(GLUE)基準中
相關文章
相關標籤/搜索