【PTM】BERT:一切過往,皆爲序章

今天咱們學習的是谷歌的同窗 2018 年的論文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》,目前引用量超 3800 次。git 雖然標題名很是浮誇,但對 Bert 來講,he deserves it。github Bert 取名來自 Bidirectional Encoder R
相關文章
相關標籤/搜索