深度學習的Attention模型

前言 前面看到谷歌發表的運用在機器翻譯上的論文《Attention is all you need》,很是讓人驚訝,這是一種全新的模型,與之前的經典的seq2seq模型改動較大,它完全摒棄了RNN或CNN神經網絡,大大簡化了模型的複雜度,而且效果還相當好。當然Attention模型可以單獨使用,但這篇文章我們來看看Attention的機制及怎麼與經典的seq2seq結合。 seq2seq 前面我們
相關文章
相關標籤/搜索