譯文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Bert: 針對語言理解雙向深度transformer的預訓練模型 摘要 本文介紹一種新的語言表達模型-BERT(Bidirectional Encoder Representations from Transformers).與近期語言表達模型 (Peters et al., 2018a; Radford et al., 2018)不同的是,Bert通過在所有層上調節雙向上下文來預訓練未標定數據
相關文章
相關標籤/搜索