Word Embedding論文閱讀筆記

Word Embedding論文閱讀筆記 1. Google 2017—Attention is All You Need 主要內容 提出Transformer架構,用於機器翻譯任務中。可替代RNN和Encoder-Decoder結構。僅使用attention機制(Self Attention + Multi-Head Attention),沒有任何遞歸和卷積。 不僅在機器翻譯任務中效果好,而且可
相關文章
相關標籤/搜索