【機器學習筆記】學習大數據集

學習大數據集 一、隨機梯度下降 首先來看批量梯度下降: 然後對所有樣本同時進行更新參數(注意求和的標記), 對於隨機梯度下降定義: 過程: 1、隨機打亂數據集 2、遍歷每個樣本1…m,分別對每個樣本進行參數更新 (後面部分是每個樣本cost對 Θ \Theta Θ的偏導,不是總體訓練誤差的偏導) 【注意】這裏和批量梯度下降不同,這裏是對每個樣本進行更新,而不是所有樣本同時更新。就避免爆內存。也就是
相關文章
相關標籤/搜索