2.4BN與神經網絡調優

2.4.1神經網絡調優 我們經常會涉及到參數的調優,也稱之爲超參數調優。目前我們從第二部分中講過的超參數有 算法層面: 學習率α β1,β2,ϵ:Adam優化算法的超參數,常設爲0.9、0.999、 λ:正則化網絡參數, 網絡層面: hiddenunits:各隱藏層神經元個數 layers:神經網絡層數 2.4.1.1調參技巧 對於調參,通常採用跟機器學習中網格搜索一致,讓所有參數的可能組合在一起
相關文章
相關標籤/搜索