機器學習第五週

代價函數和反向傳播 代價函數 首先引入一些新的我們即將討論的變量名稱: L = 網絡的總層數 sj s j = 網絡第 j 層的單元節點數(不包含偏置項) K = 最後一層輸出的單元數 m = 樣本的個數 在神經網絡中,我們可能有很多輸出節點,我用 hθ(x)k h θ ( x ) k 表示 kth k t h 的輸出。邏輯迴歸中,我們只有一個輸出 y,因此 K = 1,回顧正則化邏輯迴歸的代價函
相關文章
相關標籤/搜索