統計學習方法筆記——概論

統計學習

  • 特點
    統計學習(statistical learning)是關於計算機基於數據構建概率統計模型,並且運用模型對數據進行預測和分析的一門學科。也被稱爲統計機器學習
  • 對象
    對象是數據,提取數據的特徵,抽象出數據的模型,發現規律後對數據進行分析與預測。它關於數據的基本假設是同類數據具有一定的統計規律性。比如可以用隨機變量描述數據中的特徵,用概率分佈描述數據的統計規律。
  • 目的
    用於對數據進行預測與分析。
  • 方法
    統計學習由監督學習無監督學習半監督學習強化學習等組成。實現統計學習的方法步驟如下:
    1. 得到一個有限的訓練數據集合
    2. 確定包含所有可能的模型的假設空間,即學習模型的集合
    3. 確定模型選擇的準則,即學習的策略
    4. 實現求解最優模型的算法,即學習的算法
    5. 通過學習方法選擇最優模型
    6. 利用學習的最優模型對新數據進行預測或分析

監督學習

監督學習的任務是學習一個模型,使得模型能夠對任意給定的輸入,對其相應的輸出做一個好的預測。

基本概念

  • 輸入空間、特徵空間與輸出空間
    監督學習中將輸入與輸出所有可能取值的集合分別稱爲輸入空間輸出空間
    每個具體的輸入是一個實例,通常由特徵向量表示,所有的特徵向量存在的空間爲特徵空間。有時假設輸入空間與輸出空間爲相同的空間,有時假設兩者爲不同的空間,將實例從輸入空間映射到輸出空間。模型實際上都是定義在特徵空間上面的。輸入變量與輸出變量均爲連續變量的預測問題稱爲迴歸問題;輸出變量爲有限個離散變量的預測問題稱爲分類問題;輸入變量與輸出變量均爲變量序列的預測問題稱爲標註問題

  • 聯合概率分佈
    監督學習假設輸入輸出隨機變量X和Y遵循聯合概率分佈P(X,Y),P(X,Y)表示分佈函數或分佈密度函數。訓練數據和測試數據被看做是依聯合概率分佈P(X,Y)獨立同分布產生的。統計學習假設數據存在一定的統計規律,X與Y具有聯合概率分佈的假設就是監督學習關於數據基本假設

  • 假設空間
    監督學習的目的在於學習一個由輸入到輸出的映射,這一映射模型來表示。學習的目的在於找到最好的這樣的模型。模型屬於由輸入空間到輸出空間的映射的集合,這個集合就是假設空間(hypothesis space)。假設空間的確定意味着學習範圍的確定。監督學習的模型可以是概率模型非概率模型,由條件概率分佈P(Y|X)決策函數Y=f(X)表示。

統計學習三要素

構建一張統計學習方法就是確定具體的統計學習的三要素:
學習方法 = 模型+策略+算法

模型

模型就是所要學習的條件概率分佈決策函數。模型的假設空間包含所有可能的條件概率分佈或決策函數。例如假設決策函數是輸入變量的線性函數,那麼模型的假設空間就是所有這些線性函數構成的函數集合。假設空間中的模型一般有無窮多個。

假設空間用F表示,假設空間可以定義爲決策函數的集合: F = f | Y = f ( X ) ) ,也可以定義爲條件概率的集合: f = P | P ( Y | X )


策略

有了模型的假設空間,統計學習需要考慮如何學習或者選擇最優的模型。引入了損失函數風險函數。損失函數度量一次預測的好壞,風險函數度量平均意義下模型預測的好壞。損失函數是f(x)和Y的非負實值函數,記作 L ( Y , f ( X ) )

損失函數和風險函數

常用的損失函數如下所示:
- 0-1損失函數:

L ( Y , f ( X ) ) = { 1 Y f ( x ) 0 Y = f ( x )

  • 平方損失函數:

    L ( Y , f ( X ) ) = ( Y f ( X ) ) 2

  • 絕對損失函數:

    L ( Y , f ( X ) ) = | Y f ( X ) |

  • 對數損失函數(對數似然損失函數):

    L ( Y , P ( Y | X ) ) = l o g P ( Y | X )

由於模型遵循聯合分佈P(X,Y),所以損失函數的期望如下,這是理論上模型f(X)關於聯合分佈P(X,Y)平均意義下的損失,稱爲風險函數期望損失,記作 R e p :

R e x p ( f ) = E p [ L ( Y , f ( X ) ) ] = x × y L ( y , f ( x ) ) P ( x , y ) d x d y

模型f(X)關於訓練數據集的平均損失稱爲經驗風險經驗損失,記作 R e m p :

R e m p ( f ) = 1 N i = 1 N L ( y i , f ( x i ) )

學習目標就是選擇期望風險最小的模型,由於聯合分佈P(X,Y)是未知的, R e x p ( f ) 不能直接計算,事實上,若知道聯合分佈P(X,Y),可以從聯合分佈直接求出條件概率分佈P(Y|X),也就不需要學習了。根據大數定律,當N趨於無窮時,兩者趨於相同,但現實中數據不會無窮大,這時需要對經驗風險進行校正,使用監督學習中的兩種基本策略:經驗風險最小化結構風險最小化

經驗風險最小化和結構風險最小化

經驗風險最小化就是求解最優化問題,最優模型爲經驗風險最小的模型:

m i n f F 1 N i = 1 N L ( y i , f ( x i ) )

但是當樣本容量很小時容易產生過擬合,這時就需要使用結構風險最小化,等價於正則化,在經驗風險上加上表示模型複雜度的正則化項懲罰項。結構風險的定義如下:

R s r m ( f ) = 1 N i = 1 N L ( y i , f ( x i ) ) + λ J ( f )

求解最優化就是求解結構風險最小的模型。

算法

算法是指學習模型的具體計算方法,使用何種計算方法求解最優模型。如何保證找到全局最優解,並使求解的過程高效。統計學習可以使用已有的最優化方法,如梯度下降之類的,有時也需要使用獨自的最優化算法。

模型評估與模型選擇

訓練誤差與測試誤差

訓練誤差是指模型關於訓練集的平均損失,測試誤差是指模型關於測試集的平均損失。當損失函數爲0-1損失的時候,測試誤差就變成了常見的測試數據集上面的誤差率。常見的測試數據集上面的準確率爲:

r t e s t = 1 N i = 1 N I ( y i = f ( x i ) ) )

過擬合與模型選擇

模型複雜度與預測誤差的關係圖如下所示,模型複雜度越高越容易導致在測試集過擬合的問題。(pixeImator畫圖真心好用)
這裏寫圖片描述

正則化與交叉驗證

下面介紹兩種常用的模型選擇方法:正則化和交叉驗證

正則化

正則化是結構風險最小化策略的實現,一般具有如下形式:

m i n f F 1 N i = 1 N L ( y i , f ( x i ) ) + λ J ( f )

其中第一項是經驗風險,第二項是正則化項。正則化項可以取不同的形式,如迴歸問題中,損失函數是平方損失,可以是參數向量的 L 2 範數,也可以是 L 1 範數。

正則化的作用是選擇經驗風險與模型複雜度同時較小的模型。正則化符合奧卡姆剃刀原理,它應用在模型選擇時變爲以下想法:在所有可能選擇的模型中,能夠很好的解釋已知數據並且十分簡單纔是最好的模型。

交叉驗證

交叉驗證是另一種常用的模型選擇方法,將數據分爲訓練集,驗證集,測試集,訓練集用來訓練模型,驗證集用於模型的選擇,測試集用於對學習方法的評估。在學習到的不同的複雜模型中,選擇對驗證集有最小預測誤差的模型。交叉驗證的基本思想是重複使用數據:把給定的數據進行劃分,對劃分的數據反覆進行訓練、測試以及模型選擇。
- 簡單交叉驗證
將數據隨機分爲兩個部分,(70%訓練集,30%測試集),然後用訓練集在各種條件下(不同參數個數)訓練模型,從而得到不同的模型,在測試集上面評價各個模型的測試誤差,選出測試誤差的最小的模型。

  • S折交叉驗證
    這個應用最多(S-fold cross validation),首先隨機劃分爲S個互不相交的大小相同的子集,然後用S-1個子集的數據訓練模型,餘下的子集測試模型,反覆重新進行S種組合,最後選出S次評測中平均測試誤差最小的模型。

  • 留一交叉驗證
    當S折交叉驗證中S=N時稱爲留一交叉驗證,N爲給定數據集的容量。

泛化能力

泛化誤差

泛化能力(generalization ability)是指由該方法學習到的模型對未知數據的預測能力。
泛化誤差(generalization error)的定義如下:如果學習到的模型時 f ,那麼用這個模型對未知數據預測的誤差即爲泛化誤差。實際上,泛化誤差就是所學習到模型的期望風險。

R e x p ( f ) = E p [ L ( Y , f ( X ) ) ] = x × y L ( y , f ( x ) ) P ( x , y ) d x d y

泛化誤差上界

學習方法的泛化能力分析往往通過研究泛化誤差的概率上界進行,簡稱泛化誤差上界。通過比較這個來比較兩個算法的優劣。泛化誤差上界通常具有以下性質:它是樣本容量的函數,當樣本容量增加時,泛化上界趨於0;它是假設空間容量的函數,假設空間容量越大,模型就越難學,泛化誤差上界就越大。

泛化誤差上界定理:對於二類分類問題,當假設空間是有限個函數的集合 F = f 1 , f 2 , . . . , f d 時,對任意一個函數 f F ,至少以概率 1 δ ,以下不等式成立:

R ( f ) R ( f ) + ε ( d , N , δ ) ( 1.1 )

其中
ε ( d , N , δ ) = 1 2 N ( l o g d + l o g 1 δ ) ( 1.2 )

上面(1.1)式中左端 R ( f ) 是泛化誤差(泛化誤差就是所學模型的期望風險),右端即爲泛化誤差上界。在泛化誤差上界中,第一項是訓練誤差,訓練誤差越小,泛化誤差也越小。第二項 ε ( d , N , δ ) 是N的單調遞減函數,當N趨於無窮大時趨於0;同時它是 l o g d 階的函數,假設空間 F 包含的函數越多,其值越大。

證明:在證明中需要用到Hoeffding不等式,如下:

P ( S n E S n >= t ) e x p ( 2 t 2 i = 1 n ( b i a i ) 2 ) ( 1.3 )

P ( E S n S n >= t ) e x p ( 2 t 2 i = 1 n ( b i a i ) 2 ) ( 1.4 )

對任意的函數 f F R ( f ) 是N個獨立的隨機變量 L ( Y , f ( X ) ) 的樣本均值, R ( f ) 是隨機變量 L ( Y , f ( X ) ) 的期望值,如果損失函數取值與區間[0,1],即對所有的i, [ a i , b i ] = [ 0 , 1 ] 。那麼由Hoeffding不等式(1.4)不難得知,對 ε > 0 ,以下不等式成立:
ε>0 ε > 0 ,以下不等式成立:
P ( R ( f ) R ( f ) ε ) e x p ( 2 N ε 2 )

由於

相關文章
相關標籤/搜索