吳恩達深度學習 —— 2.4 梯度下降

在上一節中學習了邏輯迴歸模型,也知道了損失函數,損失函數是衡量單一訓練樣例的效果,還知道了成本函數,成本函數用於衡量參數w和b的效果,在全部訓練集上來衡量,下面我們討論如何使用梯度下降法來訓練或學習訓練集上的參數w和b。 迴歸一下,以下圖中是熟悉的邏輯迴歸算法,第二行是成本函數,成本函數J是參數w和b的函數,它被定義爲平均值,即 1 m \frac{1}{m} m1​的損失函數之和,損失函數可以衡
相關文章
相關標籤/搜索