2.改善深層神經網絡-第二週 優化算法

優化算法讓神經網絡運行的更快,有利於快速訓練模型! weight_decay:權重衰減項,防止過擬合的一個參數。 2.1 Mini-batch 梯度下降法 已知向量化可以有效的對所有m個例子進行計算,允許處理整個訓練集。但是如果m太大的話,處理速度仍然緩慢。所以要用mini-batch。 對x而言, 對y而言,也要相應的拆分Y的訓練集。 輸入輸出對 batch梯度下降法就是之前的梯度下降法,能夠同
相關文章
相關標籤/搜索