吳恩達Deeplearning.ai 知識點梳理(course 2,week 2)

本週內容主要講的是加速訓練優化。 Mini-Batch Mini-Batch主要是爲了解決訓練神經網絡時如下問題: 一方面,神經網絡需要大量的數據,計算量就比較大。如果每次計算數百萬個樣本,然後得到一個梯度,然後下降一步,那麼整個過程就會很慢。 另一方面,深度學習需要大量嘗試,所以如果每做一次訓練,速度很慢,那麼調參過程就很慢了。 Mini-Batch如何做呢? 例如數據集有5,000,000個樣
相關文章
相關標籤/搜索