BERT家族:BERT-WWM

BERT-WWM 論文:《Pre-Training with WholeWord Masking for Chinese BERT》微信 論文地址:https://arxiv.org/pdf/1906.08101學習 做者/機構:訊飛+哈工大spa 年份:2019.7it BERT-WWM對Bert的改進主要體如今mask的方式上,使用全詞mask。其改進點以下:pdf 與百度ERNIE相比,BE
相關文章
相關標籤/搜索