機器學習系列(4)——梯度下降

梯度下降法 在迴歸問題的第三步中,需要解決下面的最優化問題: θ ∗ = a r g min ⁡ θ L ( θ ) \theta^*=arg\min_\theta L(\theta) θ∗=argminθ​L(θ) L:loss function(損失函數) θ \theta θ:parameters(參數) 這是的parameters是複數,即 θ \theta θ指代一堆參數,比如之前說到的
相關文章
相關標籤/搜索