吳恩達 深度學習 梯度下降法

關於梯度下降法 在這個是關於w和b的兩個變量 因此產生的代價函數J是三維的 那麼在這裏我們對w和b來進行梯度下降法 就可以得到最優解 三維的不是很直觀 因此下面將採用二維的來進行說明梯度下降法 如圖所示 在這裏你可以理解爲先固定齊整一個參數 對另外一個參數進行更新 則關於代價函數 變成了一個二維的圖形 如上圖所示 那麼二維圖形就將直觀很多 比如這裏固定的是b 則是關於一個w的函數 那麼求w函數的最
相關文章
相關標籤/搜索