爲什麼使用miniBatch?

分類和迴歸的主要區別在於:在分類中,我們預測一個狀態,在迴歸中,我們預測一個值。 批量梯度下降法與隨機梯度下降法 到目前爲止,我們已經見過兩種線性迴歸方法。 隨機梯度下降法:逐個地在每個數據點應用平方(或絕對)誤差,並重復這一流程很多次。 具體而言,向數據點應用平方(或絕對)誤差時,就會獲得可以與模型權重相加的值。我們可以加上這些值,更新權重,然後在下個數據點應用平方(或絕對)誤差。 批量梯度下降
相關文章
相關標籤/搜索