吳恩達深度學習筆記之改善神經網絡(二)

2.1 mini-batch 梯度下降法(mini-batch gradient descent) 我們知道,向量化可以讓我們有效的對所有的m個訓練樣例進行計算,允許我們處理整個訓練集,而無需某個明確的公式,所以我們要把訓練樣本放到巨大的矩陣x當中去。向量化能夠讓我們相對較快的處理m個樣本,但如果是很大的話,處理速度仍然緩慢。mini-batch要做的就是將整個訓練集分割爲小一點的子訓練集。比如,
相關文章
相關標籤/搜索