邏輯迴歸、優化算法和正則化的幕後細節補充

1. 寫在前面 今天開始, 開始嘗試進行機器學習算法的一些查缺補漏知識的整理, 主要還是之前沒有注意的一些點吧, 之前的一篇補充了線性迴歸與梯度下降算法的一些細節, 這篇文章主要是對邏輯迴歸算法模型的細節梳理,以及常用的兩種優化算法, 包括梯度下降和擬牛頓法, 最後就是L1和L2正則。 這次梳理以重點知識爲主, 白話爲輔了哈哈 , 因爲這些細節部分都是面試中容易出現的一些身影, 所以先初步整理一下
相關文章
相關標籤/搜索