DeepLearning.ai筆記:(2-2)-- 優化算法(Optimization algorithms)

首發於個人博客:fangzh.top,歡迎來訪 這周學習了優化算法,可以讓神經網絡運行的更快。 主要有: mini-batch 動量梯度下降(momentum) RMSprop Adam優化算法 學習率衰減 mini-batch(小批量) 原本的梯度下降算法,在每一次的迭代中,要把所有的數據都進行計算再取平均,那如果你的數據量特別大的話,每進行一次迭代就會耗費大量的時間。 所以就有了mini-ba
相關文章
相關標籤/搜索