機器學習算法梳理(二):邏輯迴歸

邏輯迴歸 與線性迴歸的關係 二者都屬於監督學習算法。但是線性迴歸解決迴歸問題,邏輯迴歸解決分類問題。 求代價函數最優值時都可以用到梯度下降法,雖然更新規則看起來相同,但由於假設的定義不同,所以其實是完全不同的兩個過程。 原理 類似線性迴歸。首先有一個預測函數,然後構造損失函數,求和得代價函數,然後採用一些方法求代價函數最小值。 解決分類問題,輸出值永遠在0-1之間。 假設函數: 算法結果有相應的判
相關文章
相關標籤/搜索