機器學習系列25:隨機梯度下降算法

如今機器學習的數據集動則幾千萬或上億,如果運用我們之前學過的 Batch 梯度下降算法,就會發現效率很低,因爲在梯度下降時,每次循環都要對所有的數據進行求和,這會浪費大量的時間。有沒有更好的方法去處理大數據呢?答案是有的。我們在處理大數據時,會選擇隨機梯度下降算法(Stochastic gradient descent)。   下面是隨機梯度下降算法的代價函數: 之後是隨機梯度下降算法: 首先需要
相關文章
相關標籤/搜索