2.2.1 mini-batch

調試處理 我們知道在大量數據下面訓練算法,速度會非常慢,那麼我們需要找到快速的優化算法來加快訓練速度。這裏我們先來討論mini-batch梯度下降法 mini-batch梯度下降法介紹 如圖所示 我們傳統的算法是執行一遍梯度算法要跑整個數據集,如果數據集很大,比如說有5千萬,那麼多次執行梯度下降法速度會很慢很慢。 所以,如果你在處理完整個訓練集樣本之前,先讓梯度下降法處理一部分,那麼你的算法會快很
相關文章
相關標籤/搜索