Coursera 機器學習筆記(八)

主要爲第十週內容:大規模機器學習、案例、總結 (一)隨機梯度下降法 如果有一個大規模的訓練集,普通的批量梯度下降法需要計算整個訓練集的誤差的平方和,如果學習方法需要迭代20次,這已經是非常大的計算代價。 首先,需要確定大規模的訓練集是否有必要。當我們確實需要一個大規模的訓練集,可以嘗試用隨機梯度下降法來替代批量梯度下降法。 在隨機梯度下降法中,定義代價函數一個單一訓練實例的代價: 隨機梯度下降算法
相關文章
相關標籤/搜索