論初始值的重要性-僅僅是更改初始值loss差別就非常大

先來看個案例:  圖片中0.01係數去掉的效果:  損失值非常高,直到訓練110次的損失值仍然有0.75,而且推薦效果很不好; 有了0.01後,  訓練第二次的時候就比上面訓練最好的效果好很多;推薦效果也是槓槓的; 結論:初始值非常重要; 數據集放大100倍,訓練次數5000次左右: 初始誤差也是8左右 參數乘以0.01後:初始誤差0.8左右開始; 訓練70次就可以達到上面訓練5000次的效果;
相關文章
相關標籤/搜索