吳恩達深度學習總結(6)

optimization algorithm mini-batch gradient descent 定義 優點 Gradient Descent with momentum 基本思想 流程 加權指數平均介紹 直觀理解 RMSprop(Root Mean Square prop) 基本思想 流程 Adam optimization algorithm 學習率衰減 原因 衰減方法 局部最優點 min
相關文章
相關標籤/搜索