Bert模型

引言 Bert(Bidirectional Encoder Representations from Transformers)使用了Transformer爲主要框架,Transformer能夠更徹底的捕捉語句中的雙向關係。Transformer框架之所以能夠比傳統的CNN、RNN甚至是LSTM更優秀,是因爲整個網絡架構完全是由attention機制組成。因此,想要了解Bert需要從認識atten
相關文章
相關標籤/搜索