【吳恩達深度學習專欄】淺層神經網絡(Shallow neural networks)——隨機初始化(Random+Initialization)

文章目錄 3.11 隨機初始化(Random+Initialization) 3.11 隨機初始化(Random+Initialization) 當你訓練神經網絡時,權重隨機初始化是很重要的。對於邏輯迴歸,把權重初始化爲0當然也是可以的。但是對於一個神經網絡,如果你把權重或者參數都初始化爲0,那麼梯度下降將不會起作用。 由此可以推導,如果你把權重都初始化爲0,那麼由於隱含單元開始計算同一個函數,所
相關文章
相關標籤/搜索