大數據梯度下降(斯坦福machine learning week 10)

這對於現代的數據集其實是很現實的。比如對於美國的人口普查數據集來說美國有3億人口,我們通常都能得到上億條的數據。 如果我們看一下很受歡迎的網站的瀏覽量,我們也很容易得到上億條的記錄。 假設我們要訓練一個線性迴歸模型或者是邏輯迴歸模型,這是梯度下降的規則: 當你在計算梯度下降的時候,這裏的m是一個上億的值時,你需要通過計算上億個數的導數項的和來計算僅僅一步的梯度下降。 所以這就是大數據梯度下降的背景
相關文章
相關標籤/搜索