Transformer學習筆記(詳細)

1. 前言 Transformer 本質是一種 seq2seq 結構,那麼它一定也有 Encoder 和 Decoder 部分,只是這兩個部分不同於以往模型採用的RNN結構,Transformer聰明地開創了另一種新的結構。 2.Transformer結構 以中英文翻譯爲例,可以看看它的整體結構 可以看到Transformer由6個Encoder堆疊而成,6個Decoder堆疊而成。 我們再來看看
相關文章
相關標籤/搜索