線性迴歸中,爲什麼梯度下降能找到使得損失函數取極小值時相應的參數?函數的凹凸性與拐點、凸函數、梯度下降

爲什麼梯度下降能找到函數的極值及相應的參數?   本文按機器學習對凸函數的定義(來源於國外的說法)形如「U"的爲凸函數,形如「^」的爲凹函數。   根據微積分知識: 如果一個函數f(x)爲凸函數(國內高等數學的凹函數),即其二階導數>0,那麼在它的定義域內一定有且只有一個極小值; 一個函數在其某一點的梯度方向上增加的最快,在其負梯度方向上減小的最快; 梯度下降算法是一種局部優化算法,能快速地沿着凸
相關文章
相關標籤/搜索