本系列爲吳恩達斯坦福CS229機器學習課程筆記整理,如下爲筆記目錄:git
(一)線性迴歸算法
(二)邏輯迴歸api
(三)神經網絡網絡
(四)算法分析與優化機器學習
(五)支持向量機函數
(六)K-Means學習
(七)特徵降維優化
(八)異常檢測spa
(九)推薦系統3d
(十)大規模機器學習
第二章 邏輯迴歸
使用線性迴歸來處理 0/1 分類問題比較困難,所以引入邏輯迴歸來完成 0/1 分類問題,邏輯一詞也表明了是(1)和非(0)。
1、Sigmoid預測函數
在邏輯迴歸中,定義預測函數爲:
g(z) 稱之爲 Sigmoid Function,亦稱 Logic Function
2、決策邊界
決策邊界是預測函數 hθ(x) 的屬性,而不是訓練集屬性。這是由於能做出「劃清」類間界限的只有 hθ(x) ,而訓練集只是用來訓練和調節參數的。
2、預測代價函數
對於分類任務來講,咱們就是要反覆調節參數 θ ,亦即反覆轉動決策邊界來做出更精確的預測。假定咱們有代價函數 J(θ) ,其用來評估某個 θ 值時的預測精度,當找到代價函數的最小值時,就能做出最準確的預測。
一般,代價函數具有越少的極小值,就越容易找到其最小值,也就越容易達到最準確的預測。 -> 局部最小和全局最小
邏輯迴歸定義的代價函數爲:
3、最小化代價函數
一樣採用BGD和SGD兩種方式
4、正則化
解決過擬合問題:
1)減小特徵數
2)平滑曲線
弱化高階項係數(減弱曲線曲折度),稱爲對參數 θ 的懲罰(penalize)。——正則化
· 線性迴歸中正則化:
其中,參數 λ 主要是完成如下兩個任務:
- 保證對數據的擬合良好
- 保證 θ 足夠小,避免過擬合問題。(λ 越大,要使 J(θ) 變小,懲罰力度就要變大,這樣 θ 會被懲罰得越慘(越小),即要避免過擬合,咱們顯然應當增大 λ 的值。)
· 邏輯迴歸中的正則化
5、多分類問題
一般採用 One-vs-All,亦稱 One-vs-the Rest 方法來實現多分類,其將多分類問題轉化爲了屢次二分類問題。
假定完成 K 個分類,One-vs-All 的執行過程以下:
- 輪流選中某一類型 i ,將其視爲正樣本,即 「1」 分類,剩下樣本都看作是負樣本,即 「0」 分類。
- 訓練邏輯迴歸模型獲得參數 θ(1),θ(2),...,θ(K) ,即總共得到了 K−1 個決策邊界。
給定輸入 x,爲肯定其分類,須要分別計算 h(k)θ(x),k=1,...,K ,h(k)θ(x) 越趨近於1,x 越接近是第k類: