NLP進階之(十)Transformer:Attention is All You Need

NLP進階之(十)Transformer 1. 概述 1.1 模型概覽 1.2 Tensor 1.3 Self-Attention 簡介 2. Self-Attention詳細介紹 2.1 Embedding過程細節 2.2 Embedding矩陣計算 2.2.1 Multi-Head Attention 2.3 位置編碼(Positional Encoding) 2.4 LayerNorm 2.
相關文章
相關標籤/搜索