pytorch學習筆記(三十四):MiniBatch-SGD

文章目錄 小批量隨機梯度降低 1. 讀取數據 2. 從零開始實現 3. 簡潔實現 小結 小批量隨機梯度降低 在每一次迭代中,梯度降低使用整個訓練數據集來計算梯度,所以它有時也被稱爲批量梯度降低(batch gradient descent)。而隨機梯度降低在每次迭代中只隨機採樣一個樣原本計算梯度。正如咱們在前幾章中所看到的,咱們還能夠在每輪迭代中隨機均勻採樣多個樣原本組成一個小批量,而後使用這個小
相關文章
相關標籤/搜索