ECCV 2020 | 自監督任務輔助的知識蒸餾

本文介紹了一種利用自監督任務輔助知識蒸餾的方法:Knowledge Distillation Meets Self-Supervision [1]. 這篇文章(以下簡稱SSKD)來自香港中文大學和南洋理工大學,被ECCV 2020接收。 本文用一種簡潔易理解的方式來分享這篇工作的思路來源,希望對讀者有所啓示。 壹 模型壓縮與知識蒸餾 近年來,隨着底層計算硬件和分佈式平臺的快速發展,卷積神經網絡(C
相關文章
相關標籤/搜索