機器學習吳恩達第十週

17、大規模機器學習 17.1大型數據集學習 首先應該做的事是去檢查一個這麼大規模的訓練集是否真的必要,也許我們只用 1000個訓練集也能獲得較好的效果,我們可以繪製學習曲線來幫助判斷。 17.2隨機梯度下降算法 如果我們一定需要一個大規模的訓練集,我們可以嘗試使用隨機梯度下降法(SGD)來代替批量梯度下降法。 在隨機梯度下降法中,我們定義代價函數爲一個單一訓練實例的代價: 隨機梯度下降算法爲:首
相關文章
相關標籤/搜索