Stacked Latent Attention for Multimodal Reasoning [CVPR 2018]

論文鏈接甩出來:點擊打開鏈接 堆疊潛在注意力模型:個人感覺這是一篇傳統Attention 和殘差網絡的拼接。。。 一. Standard Attention Mechanism     Attention 實際上就是一個加權求和的過程。搞圖像的就突出圖像特徵而已。Attention map就是一張權值分佈圖,與feature map「點積」就是加權過程,關鍵是怎麼產生這張Attention map
相關文章
相關標籤/搜索