深度之眼_吳恩達深度學習_打卡學習_邏輯迴歸

邏輯迴歸是一個二分類問題 (二分類與迴歸不同,所以代價函數也不一樣,因爲取值希望是0,1) 函數: 其中:, 損失函數: 計算圖 梯度下降法推導: 有3個公式,有3個導數 第1個: 第2個:,a在前向計算時記得保留,在反向傳播時很有用 第3個:, 注意到,這裏參數更新與線性迴歸一樣,都是(a-y)x。 接下來是向量化: w是一列矩陣, X是矩陣,,每一列是一個樣本 前向計算: Z,A,dZ 可以用
相關文章
相關標籤/搜索