《BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding》

目錄 《BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding》 1、Bert研究意義 2、摘要 3、Bert衍生模型以及Elmo、GPT、Bert對比 3.1 RoBERTa 3.2 ALBERT 3.3 其它 3.4 ELMO、GPT、BERT比較 4、Model Architecture
相關文章
相關標籤/搜索