吳恩達-DeepLearning.ai-Course2-Week2筆記

本週主要講解加速神經網絡的算法 1.小批量梯度下降算法(mini-batch gradient descent) 如果你得訓練集數量巨大,500萬或者上千萬,梯度下降算法會非常慢,如果你讓梯度下降在處理完整個巨型的500萬訓練集之前就開始有所成效,具體來說:首先將你的訓練集拆分成更小的微小的訓練集,即小批量訓練集(mini-batch),注意新符號的引入和維度 所以一共有5000個小批量樣例,對於
相關文章
相關標籤/搜索