00-03Gradient descent梯度下降

1、把大象關進冰箱的第三步 回顧一下,ML的第三步---找出loss最小的function---此處用θ(上標星)表示。 假如θ有兩個變量θ1,θ2,從任意位置θ0處開始,計算偏微分,更新θ,如此不斷更新很多次之後,就會找到loss最小的function。但這麼做是不是有點簡單粗暴呢,下面講gradient descent三個小技巧。 Tip1:tuning your learning rate
相關文章
相關標籤/搜索