CVPR2019|用於語義分割的結構化知識蒸餾

論文標題:Structured Knowledge Distillation for Semantic Segmentation 論文地址:https://arxiv.org/abs/1903.04197 這是一篇CVPR2019做語義分割任務的文章,在訓練好的大的分割模型上運用知識蒸餾的算法,使得比較小的模型也能提高語義分割的性能。  從上圖可以看到,本論文提出的方法能夠在不增加參數量和FLOP
相關文章
相關標籤/搜索