改善深層神經網絡:超參數調試、正則化以及優化 優化算法 第二週

改善深層神經網絡:超參數調試、正則化以及優化  優化算法 第二課 1. Mini-batch Batch vs Mini-batch gradient descent Batch就是將所有的訓練數據都放到網絡裏面進行訓練,計算量大,硬件要求高。一次訓練只能得到一個梯度。 Mini-batch是將訓練集分爲若干小部分,每次訓練都將小部分放到網絡裏面進行訓練。速度快,每個Mini-batch都可以得到
相關文章
相關標籤/搜索