機器學習-邏輯迴歸-代價函數

1. 引言 回到線性迴歸模型中,訓練集和代價函數如下圖 如果我們還用J(θ)函數做爲邏輯迴歸模型的代價函數,用H(x) = g(θ^T * x),曲線如下圖所示 發現J(θ)的曲線圖是"非凸函數",存在多個局部最小值,不利於我們求解全局最小值 因此,上述的代價函數對於邏輯迴歸是不可行的,我們需要其他形式的代價函數來保證邏輯迴歸的代價函數是凸函數。 2. 代價函數 這裏我們先對線性迴歸模型中的代價函
相關文章
相關標籤/搜索