知識蒸餾學習筆記2--Structured Knowledge Distillation for Semantic Segmentation

Structured Knowledge Distillation for Semantic Segmentation 論文地址:https://arxiv.org/pdf/1903.04197.pdf 我發現的第一篇語義分割使用知識蒸餾方法的論文,太強了~~本文內容是參考網上論文解讀和原論文而成,如有侵權,請聯繫刪除。 語義分割問題可以理解爲像素級的分類,而知識蒸餾方法對分類任務有較好的表現,可
相關文章
相關標籤/搜索