深度學習論文筆記(增量學習)——Learning without Memorizing

文章目錄 main work motivation method 實驗 main work 提出了Attention distillation loss,與knowledge distillation loss混合使用訓練神經網絡,在不需examplar的前提下達到較好的準確率。 motivation CNN準確定位到與類別相關的區域後,提取的特徵才更具有區分性,常見的distiilation l
相關文章
相關標籤/搜索