【深度學習】梯度下降優化方法

參考:https://www.jianshu.com/p/e52a256cb86d 普通的梯度學習方法分爲三種,即常見的 Batch gradient descent 、Stochastic gradient descent、Mini-batch gradient descent 存在的問題: 1  選擇一個合理的學習速率很難。如果學習速率過小,則會導致收斂速度很慢;如果學習速率過大,那麼就會阻礙
相關文章
相關標籤/搜索