深度學習之梯度下降

梯度下降 θ ∗ \theta^* θ∗= arg ⁡ m i n θ \arg min_\theta argminθ​L( θ ∗ \theta^* θ∗)xuexi L:損失函數 θ ∗ \theta^* θ∗:參數 現在假設 θ \theta θ有兩個變量,分別爲{ θ 1 \theta_1 θ1​, θ 2 \theta_2 θ2​} 隨機設定 θ 0 \theta^0 θ0= ( θ 1
相關文章
相關標籤/搜索