機器學習--模型複雜度及正則化

邏輯迴歸會傾向於學習到 ω \omega ω最大的值,怎麼解決這個問題 在損失函數中引入正則項: L ( θ ) = ∑ i = 1 N y i l o g ( 1 1 + exp ⁡ ( − ω T x ) ) + ( 1 − y i ) l o g ( exp ⁡ ( − ω T x ) 1 + exp ⁡ ( − ω T x ) + 1 2 λ ω 2 L(\theta) = \sum_{i
相關文章
相關標籤/搜索