關於BERT,面試官們都怎麼問

作者 | Adherer  整理 | NewBeeNLP 面試錦囊之知識整理系列,持續更新中 乾貨滿滿,建議收藏,或者老規矩後臺見(暗號:BT) 1.BERT 的基本原理是什麼? BERT 來自 Google 的論文Pre-training of Deep Bidirectional Transformers for Language Understanding[1],BERT 是「Bidirec
相關文章
相關標籤/搜索