pytorch 入門 - 優化算法詳解

文章目錄 梯度下降法(Gradient Descent) GD算法的實現方式 BGD(Batch Gradient Descent) SGD(Stochastic Gradient Descent) MBGD (Mini-Batch Gradient Descent) 梯度下降算法的不足 GD算法的改進 Momentum Nesterov Accelerated Gradient 自適應優化算法
相關文章
相關標籤/搜索