深度學習的Attention模型

前言 前面看到谷歌發表的運用在機器翻譯上的論文《Attention is all you need》,非常讓人驚訝,這是一種全新的模型,與以前的經典的seq2seq模型改動較大,它徹底摒棄了RNN或CNN神經網絡,大大簡化了模型的複雜度,並且效果還至關好。固然Attention模型能夠單獨使用,但這篇文章咱們來看看Attention的機制及怎麼與經典的seq2seq結合。html seq2seq
相關文章
相關標籤/搜索