讀書筆記-增量學習-End-to-End Incremental Learning

一篇2018年的論文:End-to-End Incremental Learning。爲了使模型實現增量學習,把新、舊數據一起重新訓練會導致時間、存儲成本等一系列問題。作者提出的方法僅使用新數據與部分代表性的舊數據。基於Distillation知識蒸餾從舊數據中提取代表性樣本、Cross entropy交叉熵學習新數據。題目的End-to-End指的是能同時訓練更新Classification分類
相關文章
相關標籤/搜索