反向傳播(BackPropagation)與梯度下降(Gradient Descent)

梯度下降算法(Gradient Descent) 在機器學習的模型的訓練階段,對模型反覆做的事情就是將訓練樣本通過模型計算出的結果與實際訓練集的標籤進行比對,用以修改模型中的參數,直至模型的計算結果與訓練集中的結果一致。 損失函數 爲了量化的表現出模型計算結果與實際的差距,因此引入了損失函數(Loss function)用以顯示模型的準確率,不斷修改模型參數使得損失函數的值降到最小 輸入:模型 輸
相關文章
相關標籤/搜索