dropout與正則化之間的關係?

欠擬合:high bias,訓練數據不夠充分; 過擬合:產生high variance,過度訓練數據,泛化性能差。 用Bengio在Deep Learning中的這個圖來闡述什麼是過擬合。 隨着模型的優化,training error和generalization error都下降,但到了一定程度之後,training error還在下降,而generalization error卻上升了。 Re
相關文章
相關標籤/搜索