knowledge distillation 論文閱讀之:Triplet Loss for Knowledge Distillation

文章目錄 Abstract Introduction Related works Metric learning knowledge distillation Proposed method Abstract 本文提出了 metric learning 結合 KD 的方法,使用成對的或者三個一組的訓練樣本使得 student 模型可以更加接近 teacher 模型的表現。 metric learn
相關文章
相關標籤/搜索