Bert:論文閱讀-BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

摘要:我們引入了一種名爲BERT的語言表示模型,它代表Transformers的雙向編碼器表示(Bidirectional Encoder Representations)。與最近(recent)的語言表示模型(Peters et al.,2018; Radford et al.,2018)不同,BERT旨在(is designed to)通過聯合調節(jointly conditioning)所
相關文章
相關標籤/搜索