Coursera deeplearning.ai 深度學習筆記2-3-Hyperparameter tuning, Batch Normalization and Programming Framew

1 超參數(Hyperparameter) 神經網絡中,最重要的超參數是學習因子α;其次是Momentum參數β(通常0.9)、mini-batch大小、隱含層單元數;再其次是隱含層層數、學習因子衰減率。如果採用Adam算法,其參數通常可以選用默認,β1 = 0.9、β2 = 0.999、ε = 10-8。 在嘗試參數時,建議先對比較重要的參數隨機取樣,並嘗試儘可能多的組合。當尋找到參數比較合適的
相關文章
相關標籤/搜索