AAAI 2020 | 反向R?削弱顯著特徵爲細粒度分類帶來提升

論文提出了類似於dropout作用的diversification block,通過抑制特徵圖的高響應區域來反向提高模型的特徵提取能力,在損失函數方面,提出專注於top-k類別的gradient-boosting loss來優化訓練過程,模型在ResNet-50上提升3.2%,算法思路巧妙,結構易移植且效果也不錯,值得學習 論文:Fine-grained Recognition: Accounti
相關文章
相關標籤/搜索