【CVPR2020 論文翻譯】 | Explaining Knowledge Distillation by Quantifying the Knowledge

本篇基於有道翻譯進行翻譯的。爲了自己閱讀翻遍, 公式部分處理不太好。 論文原文鏈接:https://arxiv.org/abs/2003.03622 Abstract 本文提出了一種通過對深度神經網絡中間層中與任務相關和任務無關的視覺概念進行量化和分析來解釋知識蒸餾成功的方法。更具體地說,提出以下三個假設。 知識蒸餾使DNN比從原始數據中學習更多的視覺概念 知識蒸餾確保了DNN易於同時學習各種視覺
相關文章
相關標籤/搜索