文獻筆記|【文本表徵】BERT

論文信息: 論文題目:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 論文發表時間:2018年10月11日 機構:Google AI 簡介 文獻解決的問題:提出一個語言表徵的模型,叫BERT(Bidirectional Encoder Representations from Tran
相關文章
相關標籤/搜索