《Structured Knowledge Distillation for Dense Prediction》論文筆記

代碼地址:structure_knowledge_distillation 1. 概述 導讀:這篇文章針對的是密集預測的網絡場景(如語義分割),在之前的一些工作中對於這一類網絡的蒸餾時照搬分類任務中那種逐像素點的蒸餾方式(相當於是對每個像素的信息分別進行蒸餾),文章指出這樣的產生的結果並不是最優的(這樣策略會忽視特徵圖裏面的結構信息,像素信息之間是存在關聯的),因而這篇文章提出了適應密集預測網絡的
相關文章
相關標籤/搜索