Class-incremental Learning via Deep Model Consolidation 翻譯

Abstract 深度神經網絡(DNNs)在增量學習(IL)過程中經常遭受「災難性遺忘」——當訓練目標適應於新添加的一組類時,原始類的性能會突然下降。 現有的IL方法傾向於產生一個偏向於舊類或新類的模型,除非藉助舊數據的範例。 爲了解決這個問題,我們提出了一種稱爲深度模型整合(Deep Model Consolidation, DMC)的類增量學習範式,即使在原始訓練數據不可用的情況下,它也能很好
相關文章
相關標籤/搜索