Deeplearning,ai之學習筆記 Course2 Week2 Optimization algorithms

Optimization algorithms 2.6 動量梯度降低法(Gradient descent with Momentum) 一個普通batch/mini-batch的學習過程 Momentum的方法 2.7 RMSprop(root mean square prop算法) 一個普通的batch/mini-batch學習過程 RMSprop方法 2.8 Adam優化算法(Adam opt
相關文章
相關標籤/搜索