神經網絡關於訓練集數據量越大,效果越好的誤解

以前一直想不通爲何訓練集爲何一直須要越大越好?一般來講,訓練喂的數據越多,預測應該越好吧。最好,用交叉驗證確認一下也有可能訓練樣本量大,數據特徵較多,但網絡層次太少,特徵訓練不充分,預測結果變差,這樣纔對啊。隨着慢慢的學習,數據量越大效果越好,這前提是網絡提取特徵能力不能太差,效果的好壞是有多方面因素的。多方面因素我還沒理解透每一方面具體的體現。若有不正確的,還望指教。嘻嘻,學無止境啊。web
相關文章
相關標籤/搜索