【中文版 | 論文原文】BERT:語言理解的深度雙向變換器預訓練

BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding 谷歌AI語言組論文《BERT:語言理解的深度雙向變換器預訓練》,介紹一種新的語言表徵模型BERT——來自變換器的雙向編碼器表徵量。異於最新語言表徵模型,BERT基於所有層的左、右語境來預訓練深度雙向表徵量。BERT是首個大批句子層面和詞塊層
相關文章
相關標籤/搜索