ICLR2020 | StructBERT : 融合語言結構的BERT模型

作者 | 程玉 審稿 | 楊喜喜 今天給大家介紹阿里巴巴達摩院在ICLR2020的一篇論文,該研究針對預訓練語言模型BERT在預訓練任務中忽略了語言結構的問題,作者對BERT進行擴展,通過加入語言結構到預訓練任務中,其核心思想是在預訓練任務中加入兩項基於語言結構的任務:word-level ordering和sentence-level ordering。 1 背景 預訓練語言模型是NLU(Nat
相關文章
相關標籤/搜索