零基礎學nlp【7】 BERT ,transformer應用,預訓練模型

零基礎學nlp【7】 BERT 論文:Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.web 1 前言 原本今天準備寫 convol
相關文章
相關標籤/搜索