李宏毅2020機器學習筆記2——迴歸:梯度下降算法、正則化

一、迴歸應用廣泛 二、引出梯度下降算法來求解minL (1)梯度下降厲害的地方在哪裏? 只要方程可微分,都可以拿來進行處理,來找比較好的參數和方程。 梯度的方向是變化率最大的方向。 (2)梯度下降法:只有一個參數時 總是爲了讓loss減少。 任取一點,求出來該點的導數爲負,就增加w;反之減少w。 n : learning rate 學習率 (決定步長) 可以看出來步長是變化的。 越接近min,導數
相關文章
相關標籤/搜索