論文筆記BERT: Bidirectional Encoder Representations from Transformers

1 簡介 本文根據2019年《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》翻譯總結的。 BERT: Bidirectional Encoder Representations from Transformers. 應用預訓練模型於下游任務有兩種策略,分別是feature-based
相關文章
相關標籤/搜索