新聞文本分類 Task6 基於深度學習的文本分類3

學習目標 瞭解Transformer的原理和基於預訓練語言模型(Bert)的詞表示 學會Bert的使用,具體包括pretrain和finetune 1. Attention 將有限的注意力集中在重要的信息上,從而節省資源,快速獲取最有效的信息。這就是簡單的attention is all you need。 個人理解: 有個圖書館(source),裏面有很多的書籍,爲了方便管理我們給他們做了標籤,
相關文章
相關標籤/搜索