AI_04_邏輯迴歸詳解和應用_01_Lasso_ElasticNet_PolynomialFeatures

昨天聊到多元線性迴歸,聊到Ridge Regression regularizer 正則化,防止過擬合 問題:(1)多元線性迴歸的損失函數/目標函數是怎麼來的?一步步推倒。。。 (2)Ridge Regression的損失函數是什麼,有個帶α 的提高泛化能力的項 (3)Lasso Regression的損失函數是什麼 敲黑板:其實在工作過程中是不需要自己實現Ridge Regression或Las
相關文章
相關標籤/搜索