論文翻譯:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding BERT:用於語言理解的深度雙向變換器的預訓練 摘要 我們引入了一個新的語言表示模型BERT,它代表了來自Transformers的雙向編碼器表示。與最近的語言表示模型不同(Peters等人,2018a; Radford等人,2018),
相關文章
相關標籤/搜索