DAY7: 神經網絡及深度學習基礎--算法的優化(deeplearning.ai)

一、 mini-batch gradient descent(批量梯度下降法) mini-batch size的確定(結餘1~m之間,有利於充分利用向量化和每次訓練部分樣本以提高訓練速度) ①對於樣本總數小於2000個時,用總體的梯度下降法 ②典型的mini-batch size的大小爲 2^6=64,2^7=128,2^8=256,2^9=512,爲2的次方時有利於GPU/CPU的計算 ③對於每
相關文章
相關標籤/搜索