【筆記】機器學習 - 李宏毅 - 4 - Gradient Descent

梯度下降 Gradient Descent 梯度下降是一種迭代法(與最小二乘法不同),目標是解決最優化問題:\({\theta}^* = arg min_{\theta} L({\theta})\),其中\({\theta}\)是一個向量,梯度是偏微分。 爲了讓梯度下降達到更好的效果,有以下這些Tips: 1.調整學習率 梯度下降的過程,應當在剛開始的時候,應該步長大一些,以便更快迭代,當靠近目標
相關文章
相關標籤/搜索