Structured Knowledge Distillation for Semantic Segmentation

    本文通過知識蒸餾的思想利用複雜網絡(Teacher)來訓練簡單網絡(Student),目的是爲了讓簡單的網絡能夠達到和複雜網絡相同的分割結果。爲了得到兩個網絡相同的結果就要保證兩個網絡在訓練過程中的一致性。因此通過設計訓練過程中的損失函數來是兩者達到一致效果。      由於整個模型的過程是希望簡單網絡(Student)能夠將複雜網絡(Teacher)中的只是學習過來,因此Teacher網
相關文章
相關標籤/搜索