梯度下降(Gradient Descent) [cs229學習筆記]

本文對應的是吳恩達老師的CS229機器學習的第二課。這節課先介紹了線性迴歸;然後講述了兩個簡單的優化方法,批梯度下降和隨機梯度下降;最後推導了矩陣形式的線性迴歸。 爲防止符號混淆,本文中 i i i 表示樣本序號, j j j 表示特徵序號, n n n 表示樣本數量, m m m 表示特徵數量 損失函數(loss function) 簡單起見,這節課研究的函數爲線性迴歸。所謂迴歸,指的就是對某一
相關文章
相關標籤/搜索