Transformer詳解(一):從RNN到Attention機制

對於《Attention is all you need》這篇文章中提到的transformer模型,自己最初閱讀的時候並不是很理解,於是決定從頭開始,一點一點梳理transformer模型的由來。整個文章計劃分成三個部分,第一部分,也就是本文,將重點介紹一下NLP方面對於seq2seq的基本發展。第二部分,將講解attention機制的各個細節。最後一部分,將介紹transformer模型的具體
相關文章
相關標籤/搜索