《Attention Is All You Need》

本文是對Google2017年發表於NIPS上的論文"Attention is all you need"的閱讀筆記. 對於深度學習中NLP問題,通常是將句子分詞後,轉化詞向量序列,轉爲seq2seq問題. RNN方案 採用RNN模型,通常是遞歸地進行 y t = f ( y t − 1 , x t ) y_t=f(y_{t-1},x_t) yt​=f(yt−1​,xt​),優點在於結構簡單,十分
相關文章
相關標籤/搜索