DATASET DISTILLATION 論文總結

  以往的方法是不斷地輸入數據集,通過反向傳播迭代的方法,更新網絡權重,從而達到想要的訓練結果。這篇論文提供了一個新的角度,對於分類網絡來說,首先根據原來的數據集和網絡的初始化權重(固定或隨機),通過反向傳播迭代更新新的數據集(生成的新數據集)。來形成新的幾乎等於(大於等於)分類數量的數據集,再經過有限的幾次迭代以後就可以達到比較高的精度。 新生成的蒸餾數據特別像噪聲。 按照論文的章節安排,重點說
相關文章
相關標籤/搜索