NLP系列——(10)BERT

BERT 一、Transformer 1.1 Encoder-Decoder框架 1.2 Transformer模型架構 二、BERT 2.1 BERT 原理 2.2 BERT模型總體結構 2.3 BERT模型輸入 2.4 BERT模型預訓練任務 2.4.1 Masked LM 2.4.2 Next Sentence Prediction 2.5 模型比較 三、BERT實現文本分類 Bert之所以
相關文章
相關標籤/搜索