Self-Attention Generative Adversarial Networks 論文解讀

論文地址:https://arxiv.org/abs/1805.08318  Ian goodfellow 2018年 新作,在GAN生成中加入了attention的機制,同時將SNgan的思想引入到生成器當中。 傳統gan的問題 使用小的卷積核很難發現圖像中的依賴關係 使用大的卷積核就喪失了卷積網絡參數與計算的效率 attention層詳解 就是在前一層的feature maps 上加入atte
相關文章
相關標籤/搜索