深度學習中常見的相關概念及TensorFlow中的batch和minibatch

在剛開始學習使用TF的過程中,我不是很理解什麼是「batch」。也經常有人問,到底minibatch是幹什麼的? 然而這是一個在TensorFlow中,或者說很多DL的框架中很常見的詞。 這個解釋我覺得比較貼切也比較容易理解。引用如下: 深度學習的優化算法,說白了就是梯度下降。每次的參數更新有兩種方式。 第一種,遍歷全部數據集算一次損失函數,然後算函數對各個參數的梯度,更新梯度。這種方法每更新一次
相關文章
相關標籤/搜索