邏輯迴歸名字比較古怪,看上去是迴歸,倒是一個簡單的二分類模型。函數
邏輯迴歸的模型是以下形式:blog
其中x是features,θ是feature的權重,σ是sigmoid函數。將θ0視爲θ0*x0(x0取值爲常量1),那麼im
這裏咱們取閾值爲0.5,那麼二分類的判別公式爲:db
下面說一下參數θ的求解:img
爲啥子這樣去損失函數呢?co
當y=1的時候,顯然hθ(x)越接近1咱們的預測越靠譜;y=0時同理。因此應該在y=1時,使損失韓式-log(hθ(x))越小越好,y=0時,一樣使損失函數-log(1-hθ(x))越小越好,即得上式ps