用了這個方法,兩週沒變過的模型精度居然提升了(附資源)

  作者 | Derrick Mwiti 譯者 | 劉暢 編輯 | Jane 出品 | AI科技大本營(ID:rgznai100)   【導語】知識蒸餾是一種模型壓縮技術,它利用訓練好的大網絡(教師網絡)去教小網絡(學生網絡)。較小的網絡經過訓練後,可有類似於大網絡的性能。這樣就可以在諸如手機或其他移動端設備等小型設備上部署此類模型。在今天的文章中,將爲大家介紹關於幾個重要的知識蒸餾的工作進展。
相關文章
相關標籤/搜索