BERT模型的若干問題整理記錄 & 思考

1.BERT的基本原理是什麼? BERT來自Google的論文Pre-training of Deep Bidirectional Transformers for Language Understanding,BERT是」Bidirectional Encoder Representations from Transformers」的首字母縮寫,整體是一個自編碼語言模型(Autoencoder
相關文章
相關標籤/搜索