【論文閱讀】Structured Knowledge Distillation for Semantic Segmentation

概述 這篇論文來自CVPR2019 Oral。 論文的出發點:語義分割的模型往往很難兼顧速度與精度,也因此語義分割的網絡分爲兩類,論文中描述爲 cumbersome segmentation network與 compact segmentation network,簡單地說一個注重精度,一個注重速度。這篇論文利用知識蒸餾來提高compact segmentation network的精度。 論文
相關文章
相關標籤/搜索