對比Attention的幾種結構

前言   Attention是一種思想,在當前輸出上,是存在部分輸入需要重點關注的,其對該輸出貢獻非常大。之前看到幾篇關於attention思想的應用文章,現對比下其中的Attention具體結構上的區別。 NMT using Attention   這篇文章是Bahdanau的2015年佳作,將Attention引入到NMT中並取得了非常好的效果,其中的attention結構不是非常容易理解。
相關文章
相關標籤/搜索