論文閱讀 A Gift from Knowledge Distillation: Fast Optimization

2017年CVPR論文A Gift from Knowledge Distillation:Fast Optimization, Network Minimization and Transfer Learning。 論文地址: GitHub: 摘要 提出了將蒸餾的知識看作成一種解決問題的流,它是在不同層之間的feature通過內積計算得到的 這個方法有三個好處:   student網絡可以學的更
相關文章
相關標籤/搜索