【機器學習】LASSO算法&彈性網絡

1.在上一次我們說了Rigde迴歸。在那之間我們說了對於代價函數有兩種正則化的方式:L1正則化和L2正則化。這兩種正則化的目的有一個很重要的共同點就是抵抗多重共線性,在嶺迴歸中我們使用的是L2正則化,那麼今天就簡單的說一下L1正則化。                              上邊的函數就是Lasso算法的代價函數,也是L1正則化之後的代價函數。在這種方法下,對於代價函數最小值的求
相關文章
相關標籤/搜索