Transformer的原理

前言 這是第10個任務,本次任務主要是一下幾個方面: Transformer的原理 BERT的原理 利用預訓練的BERT模型將句子轉換爲句向量,進行文本分類 本文主要接受Transformer 原理,2017年,Google發表論文《Attention is All You Need》,提出經典網絡結構Transformer,全部採用Attention結構的方式,代替了傳統的Encoder-Dec
相關文章
相關標籤/搜索