深度堆棧自編碼網絡

爲什麼會引進自編碼網絡? 我們都是知道深度神經網絡裏面的網絡一般是比較深的,在訓練之初,模型參數的初始化對模型影響十分深遠的。當初始化選的好時,模型可以很快的收斂,可以避開一些局部最優點。當初始化選的不好是,模型要麼就收斂到局部最優的馬鞍點,要麼就是收斂的特別慢。 所以爲了解決參數初始化的問題,Hinton大佬提出了使用大量的沒label的數據來「無監督」算法逐層預訓練網絡的初值,再使用有labe
相關文章
相關標籤/搜索