Like What You Like: Knowledge Distill via Neuron Selectivity Transfer論文初讀

目錄 摘要 引言 相關工作   深度網絡壓縮與加速   知識蒸餾   領域自適應 準備知識   一些符號   MMD(Maximum Mean Discrepancy) 神經元選擇性遷移   出發點   公式   討論 實驗   在分類數據集上   在檢測數據集上 討論   不同KT的分析   MMD以外的方法 結論 摘要 將知識遷移看成一種分佈匹配問題 通過用一種新的損失函數最小化teacher
相關文章
相關標籤/搜索