吳恩達機器學習筆記 —— 18 大規模機器學習

http://www.cnblogs.com/xing901022/p/9417633.html 本章講了梯度下降的幾種方式:batch梯度下降、mini-batch梯度下降、隨機梯度下降。也講解了如何利用mapreduce或者多cpu的思想加速模型的訓練。 更多內容參考 機器學習&深度學習 有的時候數據量會影響算法的結果,如果樣本數據量很大,使用梯度下降優化參數時,一次調整參數需要計算全量的樣本
相關文章
相關標籤/搜索