基本機器學習面試問題 --- 理論/算法2

線性迴歸 如何學習參數:最小化損失函數 如何最小化損失函數:梯度下降 正則化: L1(Lasso 迴歸):可以將某個係數縮小到零,從而執行特徵選擇; L2(Ridge 迴歸):以同樣的比例收縮所有係數 ; 幾乎總是勝過 L1; 合併(彈性網)。 假定特徵和標籤之間存在線性關係 可以添加多項式和交互特徵以增加非線性 邏輯迴歸 用於二分類問題的廣義線性模型(GLM) 將 sigmoid 函數應用於線性
相關文章
相關標籤/搜索