ML小白打卡第二天

LR 二分類邏輯迴歸 目前不能再簡化了。那這裏的w和b到底如何求出來呢? 這是優化算法的主要職責。 邏輯迴歸沒法通過導數設爲0求解。這時候可以考慮迭代式的優化算法。 其中一個最經典的迭代式算法叫做梯度下降法。 這種算法的核心是通過不斷迭代的方式來求解函數的最優解。 對於梯度下降法,有一個重要的參數η叫做學習率(learning rate),它控制着每一次迭代的程度。學習率越大,學習速度會越快; 學
相關文章
相關標籤/搜索