Logistic Regression邏輯迴歸的一些知識點

關於Logistic Regression的一些知識點: 爲什麼損失函數不用平方誤差: L = 1 2 m ∑ i m ( y ^ − y ) 2 L = \frac{1}{2m}\sum_i^m(\hat{y}-y)^2 L=2m1​i∑m​(y^​−y)2 答:這樣的損失函數不是凸的,梯度下降法會陷入局部最小值。 二分類問題的損失函數: L = − 1 m ∑ i m ( y log ⁡ y
相關文章
相關標籤/搜索