【distill.&transfer】Deep Face Recognition Model Compression via Knowledge Transfer and Distillation

論文鏈接:https://arxiv.org/abs/1906.00619 作者的動機: 本篇文章提出了一種對人臉識別模型壓縮的方法:基於student-teacher paradigm 的臉部識別運用;模型加速是通過降低輸入圖像的精度,使用相同的網絡結構,從而使模型參數不減少,由於圖像尺寸減少,數據儲存空間也隨之減少,整體架構圖: 作者提出的方法: 作者使用了三種方法來提升輸入低精度圖像模型的性
相關文章
相關標籤/搜索