臺大李宏毅--梯度下降Gradient Descent

一:簡單梯度下降 1. 概述 預測模型爲 y=b+w∗xcp y = b + w ∗ x c p ,真實標籤爲 y^n y ^ n ,則損失函數loss function爲 我們目的是最小化 損失函數L(w,b),即找出最佳的 w∗,b∗ w ∗ , b ∗ 即 處理方法 : 梯度下降法 2. 僅含一個參數的梯度下降 對某一個參數的偏導數,就是對損失函數在這個參數的方向的斜率 即,就是 然後,不對
相關文章
相關標籤/搜索