李宏毅——transformer

李宏毅——transformer 導讀 self-attention multi-head self-attention 順序問題 seq2seq with attention transformer 網絡架構 attention visualization 例子 導讀 什麼是transformer: 對於序列,常用的是RNN RNN的問題,不容易並行處理。 所以有人提出了,用CNN來替代RNN。
相關文章
相關標籤/搜索