百度ERNIE,中文任務全面超越BERT

本文轉自機器之心 ERNIE Github 項目地址:https://github.com/PaddlePaddle/LARK/tree/develop/ERNIE 近年來,無監督文本的深度神經網絡預訓練模型大幅提升了各個 NLP 任務的效果。早期的工作聚焦於上下文無關的詞向量建模,而之後提出的 Cove,ELMo,GPT 等模型,構建了語句級的語義表示。Google 近期提出的 BERT 模型,
相關文章
相關標籤/搜索