【BERT系列】——一文看懂BERT

1. 什麼是BERT BERT 全名 Bidirection Encoder Representations from Transformers,是谷歌於2018年發佈的NLP領域的 預訓練模型,一經發布就霸屏了NLP領域的相關新聞,味道是真香。果不其然,2019年出現了不少BERT相關的論文和模型,本文旨在對 BERT 模型進行一個總結。web 首先從名字就能夠看出,BERT模型是使用雙向Tra
相關文章
相關標籤/搜索