爲什麼L1懲罰L2懲罰更容易得到稀疏解

在優化問題中,爲什麼L1懲罰L2懲罰更容易得到稀疏解 L 1 _1 1​懲罰與L 2 _2 2​懲罰是什麼 下面從3個角度解釋爲什麼L1懲罰L2懲罰更容易得到稀疏解 最優化問題的角度 梯度的角度 L 1 _1 1​懲罰與L 2 _2 2​懲罰是什麼 L 1 _1 1​懲罰與L 2 _2 2​懲罰都是對模型進行懲罰,防止因模型參數過於複雜而導致過擬合。特別的,在線性模型中,加L 1 _1 1​懲罰的
相關文章
相關標籤/搜索