【論文筆記copy】Attention總結三:self-attention與transformer

self-attention與transformer講解 論文:attention is all you need. 參考 1.完全參考這篇博客,講的非常好!本總結只是複述。 2.還參考了知乎的這篇文章,作爲補充 文章目錄 參考 1 self-attention具體 1.1 過程 1.2 矩陣的self-attention 1.3 Scaled Dot-Product Attention 2 tr
相關文章
相關標籤/搜索