BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding:https://arxiv.org/pdf/1810.04805.pdf 摘要 我們介紹了一種新的**語言表示模型BERT**,它表示轉換器的雙向編碼器表示。與最近的語言表示模型不同(Peters et al., 2018; Radfor
相關文章
相關標籤/搜索