【論文閱讀筆記】ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks

論文地址:ECA-Net 論文代碼:https://github.com/BangguWu/ECANet 論文總結   ECA-Net是基於SE-Net的擴展,其認爲SE block的兩個FC層之間的維度縮減是不利於channel attention的權重學習的,這個權重學習的過程應該直接一一對應。作者做了一系列實驗來證明在attention block中保持channel數不變的重要性。   E
相關文章
相關標籤/搜索