【2017CS231n】第七講:訓練神經網絡(下)

先回顧一下第六講:     數據預處理。     當我們對數據進行歸一化紅,分類器對權重矩陣的擾動不是特別敏感,魯棒性更好。左邊的分類器稍微變動一點就會破壞分類效果。     右邊的數據移到原點附近,並縮小單位方差,仍然可以進行良好的分類。當我們稍微轉動分類的直線,損失函數對參數中的變動就不那麼敏感,從而讓優化變得容易。 1. 更好的優化 1.1 隨機梯度下降法 訓練神經網絡的核心策略是一個優化問
相關文章
相關標籤/搜索