圖解BERT模型

1. 模型的輸入/輸出 BERT模型的全稱是:BidirectionalEncoder Representations from Transformer。從名字中可以看出,BERT模型的目標是利用大規模無標註語料訓練、獲得文本的包含豐富語義信息的Representation,即:文本的語義表示,然後將文本的語義表示在特定NLP任務中作微調,最終應用於該NLP任務。煮個栗子,BERT模型訓練文本語義
相關文章
相關標籤/搜索