李宏毅學習筆記15.Transformer

文章目錄 Sequence to Sequence Self-Attention 生成過程 並行過程 小結 Multi-head Self-attention(2 heads as example) Positional Encoding Seq2seq with Attention 總結 應用 在線LaTeX公式編輯器 看封面就知道,這節課是講transformer,它的主要應用是BERT,BE
相關文章
相關標籤/搜索