Gradient descend 梯度下降法和歸一化、python中的實現(未完善)

梯度下降法是優化函數參數最常用、簡單的算法 通常就是將一組輸入樣本的特徵$x^i$傳入目標函數中,如$f(x) = wx + b$,再計算每個樣本通過函數預測的值$f(x^i)$與其真實值(標籤)$y^i$之差,然後計算所有差的平方和獲得一個關於$w$損失函數$L(w)$: $L(w) = \sum\limits_{i=0}^m [f(x^i) - y^i]^2 =  \sum\limits_{i
相關文章
相關標籤/搜索