Ch1 introduction緒論
1.1例子:多項式曲線擬合
輸入變量
x
x
x ;目標變量
t
t
t ;數據由
sin
(
2
π
x
)
\sin{(2\pi x)}
sin ( 2 π x ) 生成,目標變量帶有隨機的噪聲
訓練集:x
≡
(
x
1
,
…
,
x
N
)
\equiv {(x_1,\ldots,x_N)}
≡ ( x 1 , … , x N ) ;t
≡
(
t
1
,
…
,
t
N
)
\equiv(t_1,\ldots,t_N)
≡ ( t 1 , … , t N ) ;x 的生成:選擇
x
n
(
n
=
1
,
…
,
N
)
x_n(n=1,\ldots,N)
x n ( n = 1 , … , N ) 的值,其中
x
n
x_n
x n 均勻分佈在區間
[
0
,
1
]
[0,1]
[ 0 , 1 ] ;t 的生成:
sin
(
2
π
x
)
\sin{(2\pi x)}
sin ( 2 π x ) ,再給每一個點增長一個小的符合高斯分佈的隨機噪聲
目標:利用訓練集預測對應於輸入變量的新值
x
^
\hat{x}
x ^ 的目標變量的值
t
^
\hat{t}
t ^
使用多項式函數擬合數據
目標函數:
y
(
x
,
w
)
=
w
0
+
w
1
x
+
w
2
x
2
+
…
+
w
M
x
M
=
∑
j
=
0
M
w
j
x
j
y(x,\boldsymbol w)=w_0+w_1 x+w_2 x^2+\ldots+w_M x^M=\sum_{j=0}^M w_j x^j
y ( x , w ) = w 0 + w 1 x + w 2 x 2 + … + w M x M = j = 0 ∑ M w j x j
M
M
M 是多項式的階數(order),
x
j
x_j
x j 表示
x
x
x 的
j
j
j 次冪,係數
w
0
,
…
,
w
M
w_0,\ldots,w_M
w 0 , … , w M 記做向量
w
\boldsymbol w
w 。
y
(
x
,
w
)
y(x,\boldsymbol w)
y ( x , w ) 是
x
x
x 的非線性函數,是係數
w
\boldsymbol w
w 的線性函數
偏差函數:
E
(
w
)
=
1
2
∑
n
=
1
N
{
y
(
x
n
,
w
)
−
t
n
}
2
E(\boldsymbol w)=\frac{1}{2} \sum_{n=1}^N\left\{y(x_n,\boldsymbol w)-t_n\right\}^2
E ( w ) = 2 1 n = 1 ∑ N { y ( x n , w ) − t n } 2 因子
1
2
\frac{1}{2}
2 1 是爲了後續運算方便而加入的,偏差函數非負,當且僅當函數
y
(
x
,
w
)
y(x,\boldsymbol w)
y ( x , w ) 對全部的訓練數據點均做出正確預測時,偏差函數爲0;
目標:選擇使得
E
(
w
)
E(\boldsymbol w)
E ( w ) 儘可能小的
w
\boldsymbol w
w
偏差函數是
w
\boldsymbol w
w 的二次函數,導數是
w
\boldsymbol w
w 的線性函數,則最小值有一個惟一解,記做
w
∗
\boldsymbol w^*
w ∗
存在問題:選擇多項式的階數
M
M
M ----模型對比(model comparison)or模型選擇(model selection)
9階時獲得了對於訓練數據的一個完美擬合,
E
(
w
∗
)
E(\boldsymbol w^*)
E ( w ∗ ) =0,擬合的曲線劇烈震盪,表現不好----過擬合(over-fitting)
均方根偏差:
E
R
M
S
=
2
E
(
w
∗
)
/
N
E_{RMS}=\sqrt{2E(\boldsymbol w^*)/N}
E R M S = 2 E ( w ∗ ) / N
除以
N
N
N 目的是以相同的基礎對比不一樣大小的數據集;平方根確保
E
R
M
S
E_{RMS}
E R M S 與
t
t
t 使用相同的規模和單位
隨着
M
M
M 的增大,係數變大。
M
=
9
M=9
M = 9 ,有着更大的
M
M
M 值的更靈活的多項式被過度地調參使得多項式被調節成了與目標值的隨機噪聲相符,致使了過擬合現象
對一個給定的模型複雜度,當數據集的規模增長時,過擬合問題變得不嚴重。即數據集規模越大,能用來擬合數據的模型就越複雜(越靈活)。要求數據點的數量不該該小於模型的可調節參數的數量的若干倍(如5或10)。然而參數的數量對於模型複雜度的大部分合理的度量來講都不是必要的
上圖中
M
=
9
M=9
M = 9
控制過擬合:正則化(regularization)----收縮法(shrinkage),二次正則項稱山脊迴歸(ridge regression),神經網絡中叫權值衰減(weight decay)
E
~
(
w
)
=
1
2
∑
n
=
1
N
{
y
(
x
n
,
w
)
−
t
n
}
2
+
λ
2
∥
w
∥
2
\tilde{E}(\boldsymbol w)=\frac{1}{2} \sum_{n=1}^{N}\left\{y(x_n,\boldsymbol w)-t_n\right\}^2+\frac{\lambda}{2}\left\|\boldsymbol w\right\|^2
E ~ ( w ) = 2 1 n = 1 ∑ N { y ( x n , w ) − t n } 2 + 2 λ ∥ w ∥ 2 其中
∥
w
∥
2
=
w
T
w
=
w
0
2
+
w
1
2
+
…
+
w
M
2
\left\|\boldsymbol w\right\|^2=\boldsymbol w^T\boldsymbol w=w_0^2+w_1^2+\ldots+w_M^2
∥ w ∥ 2 = w T w = w 0 2 + w 1 2 + … + w M 2
一般係數
w
0
w_0
w 0 從正則化項中省略,由於包含
w
0
w_0
w 0 會使得結果依賴於目標變量原點的選擇,也能夠包含但必須有本身的正則化係數
下圖中
M
=
9
M=9
M = 9 ,隨着
λ
\lambda
λ 的增大,係數變小
1.2機率論
機率論提供了一個合理的框架用來對不肯定性進行量化和計算,構成了模式識別的一箇中心基礎
一個例子:紅盒子和藍盒子,蘋果和橘子。紅盒子中有2個蘋果和6個句子,藍盒子中有3個蘋果和1個橘子
選擇的盒子的顏色記爲隨機變量
B
B
B ,取值
r
r
r 或
b
b
b .
p
(
r
)
=
4
10
p(r)=\frac{4}{10}
p ( r ) = 1 0 4 ,
p
(
b
)
=
6
10
p(b)=\frac{6}{10}
p ( b ) = 1 0 6
選擇的水果的種類記爲隨機變量
F
F
F ,取值
a
a
a 或
o
o
o
通常情形:隨機變量
X
X
X 和
Y
Y
Y ,
x
i
(
i
=
1
,
…
,
M
)
x_i(i=1,\ldots,M)
x i ( i = 1 , … , M ) ;
y
j
(
j
=
1
,
…
,
L
)
y_j(j=1,\ldots,L)
y j ( j = 1 , … , L ) ;
N
N
N 次試驗,
X
=
x
i
X=x_i
X = x i 且
Y
=
y
j
Y=y_j
Y = y j 的試驗數量記爲
n
i
j
n_{ij}
n i j
p
(
X
=
x
i
,
Y
=
y
j
)
=
n
i
j
N
p(X=x_i,Y=y_j)=\frac{n_{ij}}{N}
p ( X = x i , Y = y j ) = N n i j
p
(
X
=
x
i
)
=
c
i
N
=
∑
j
=
1
L
p
(
X
=
x
i
,
Y
=
y
j
)
p(X=x_i)=\frac{c_i}{N}=\sum_{j=1}^{L}{p(X=x_i,Y=y_j)}
p ( X = x i ) = N c i = j = 1 ∑ L p ( X = x i , Y = y j )
p
(
Y
=
y
j
∣
X
=
x
i
)
=
n
i
j
c
i
p(Y=y_j|X=x_i)=\frac{n_{ij}}{c_i}
p ( Y = y j ∣ X = x i ) = c i n i j
p
(
X
=
x
i
,
Y
=
y
j
)
=
n
i
j
N
=
n
i
j
c
i
⋅
c
i
N
=
p
(
Y
=
y
j
∣
X
=
x
i
)
p
(
X
=
x
i
)
p(X=x_i,Y=y_j)=\frac{n_{ij}}{N}=\frac{n_{ij}}{c_i}\cdot \frac{c_i}{N}=p(Y=y_j|X=x_i)p(X=x_i)
p ( X = x i , Y = y j ) = N n i j = c i n i j ⋅ N c i = p ( Y = y j ∣ X = x i ) p ( X = x i )
機率論的兩條基本規則:
加法準則(sum rule)
p
(
X
)
=
∑
Y
p
(
X
,
Y
)
p(X)=\sum_Y{p(X,Y)}
p ( X ) = ∑ Y p ( X , Y )
乘法準則(product rule)
p
(
X
,
Y
)
=
P
(
Y
∣
X
)
P
(
X
)
p(X,Y)=P(Y|X)P(X)
p ( X , Y ) = P ( Y ∣ X ) P ( X )
根據這兩條規則,以及對稱性
p
(
X
,
Y
)
=
p
(
Y
,
X
)
p(X,Y)=p(Y,X)
p ( X , Y ) = p ( Y , X ) ,獲得:
貝葉斯定理
p
(
Y
∣
X
)
=
p
(
X
∣
Y
)
p
(
Y
)
p
(
X
)
p(Y|X)=\frac{p(X|Y)p(Y)}{p(X)}
p ( Y ∣ X ) = p ( X ) p ( X ∣ Y ) p ( Y )
貝葉斯定理的分母,歸一化常數
p
(
X
)
=
∑
Y
p
(
X
∣
Y
)
p
(
Y
)
p(X)=\sum_Y{p(X|Y)p(Y)}
p ( X ) = Y ∑ p ( X ∣ Y ) p ( Y )
先驗機率(prior probability):
p
(
B
)
p(B)
p ( B ) 觀察到水果種類以前就能獲得的機率
後驗機率(posterior probability):
p
(
B
∣
F
)
p(B|F)
p ( B ∣ F )
1.2.1機率密度(probability density)
若是一個實值變量
x
x
x 的機率落在區間
(
x
,
x
+
δ
x
)
(x,x+\delta x)
( x , x + δ x ) 的機率由
p
(
x
)
δ
x
p(x)\delta x
p ( x ) δ x 給出
(
δ
x
→
0
)
(\delta x\to0 )
( δ x → 0 ) ,
p
(
x
)
p(x)
p ( x ) 是機率密度
p
(
x
∈
(
a
,
b
)
)
=
∫
a
b
p
(
x
)
d
x
p(x\in (a,b))=\int_{a}^{b}p(x)dx
p ( x ∈ ( a , b ) ) = ∫ a b p ( x ) d x
p
(
x
)
≥
0
p(x)\ge 0
p ( x ) ≥ 0
∫
−
∞
∞
p
(
x
)
d
x
=
1
\int_{-\infty}^{\infty}p(x)dx=1
∫ − ∞ ∞ p ( x ) d x = 1
p
y
(
y
)
=
p
x
(
x
)
∣
d
x
d
y
∣
=
p
x
(
g
(
y
)
)
∣
g
′
(
y
)
∣
p_y(y)=p_x(x)\left|\frac{dx}{dy}\right|=p_x(g(y))\left|g^\prime(y)\right|
p y ( y ) = p x ( x ) ∣ ∣ ∣ ∣ d y d x ∣ ∣ ∣ ∣ = p x ( g ( y ) ) ∣ g ′ ( y ) ∣
P
(
z
)
=
∫
−
∞
z
p
(
x
)
d
x
P(z)=\int_{-\infty}^{z}p(x)dx
P ( z ) = ∫ − ∞ z p ( x ) d x
加法和乘法規則:
p
(
x
)
=
∫
p
(
x
,
y
)
d
y
p(x)=\int p(x,y)dy
p ( x ) = ∫ p ( x , y ) d y
p
(
x
,
y
)
=
p
(
y
∣
x
)
p
(
x
)
p(x,y)=p(y|x)p(x)
p ( x , y ) = p ( y ∣ x ) p ( x )
1.2.2指望和協方差
指望(expectation)
離散變量
E
[
f
]
=
∑
x
p
(
x
)
f
(
x
)
\mathbb E[f]= \sum_{x} p(x)f(x)
E [ f ] = ∑ x p ( x ) f ( x )
連續變量
E
[
f
]
=
∫
p
(
x
)
f
(
x
)
d
x
\mathbb E[f]=\int p(x)f(x)dx
E [ f ] = ∫ p ( x ) f ( x ) d x
給定有限數量的
N
N
N 個點
E
[
f
]
≃
1
N
∑
n
=
1
N
f
(
x
n
)
\mathbb E[f]\simeq \frac{1}{N} \sum_{n=1}^N f(x_n)
E [ f ] ≃ N 1 ∑ n = 1 N f ( x n )
多變量
E
x
[
f
(
x
,
y
)
∣
y
]
=
∑
x
p
(
x
∣
y
)
f
(
x
)
\mathbb E_x[f(x,y)|y]=\sum_x p(x|y)f(x)
E x [ f ( x , y ) ∣ y ] = ∑ x p ( x ∣ y ) f ( x )
方差(variance):
v
a
r
[
f
]
=
E
[
(
f
(
x
)
−
E
[
f
(
x
)
]
)
2
]
=
E
[
f
(
x
)
2
]
−
E
[
f
(
x
)
]
2
var[f]=\mathbb E[(f(x)-\mathbb E[f(x)])^2]=\mathbb E[f(x)^2]-\mathbb E[f(x)]^2
v a r [ f ] = E [ ( f ( x ) − E [ f ( x ) ] ) 2 ] = E [ f ( x ) 2 ] − E [ f ( x ) ] 2
v
a
r
[
x
]
=
E
[
x
2
]
−
E
[
x
]
2
var[x]=\mathbb E[x^2]-\mathbb E[x]^2
v a r [ x ] = E [ x 2 ] − E [ x ] 2
協方差(covariance)
c
o
v
[
x
,
y
]
=
E
x
,
y
[
{
x
−
E
[
x
]
}
{
y
−
E
[
y
]
}
]
=
E
x
,
y
[
x
y
]
−
E
[
x
]
E
[
y
]
cov[x,y]=\mathbb E_{x,y}[\left\{x-\mathbb E[x]\right\}\left\{y-\mathbb E[y]\right\}]=\mathbb E_{x,y}[xy]-\mathbb E[x]E[y]
c o v [ x , y ] = E x , y [ { x − E [ x ] } { y − E [ y ] } ] = E x , y [ x y ] − E [ x ] E [ y ]
向量
c
o
v
[
x
,
y
]
=
E
x
,
y
[
{
x
−
E
[
x
]
}
{
y
T
−
E
[
y
T
]
}
]
=
E
x
,
y
[
x
y
T
]
−
E
[
x
]
E
[
y
T
]
cov[\boldsymbol x,\boldsymbol y]=\mathbb E_{x,y}[\left\{x-\mathbb E[x]\right\}\left\{\boldsymbol y^T-\mathbb E[\boldsymbol y^T]\right\}]=\mathbb E_{x,y}[\boldsymbol x\boldsymbol y^T]-\mathbb E[\boldsymbol x]E[\boldsymbol y^T]
c o v [ x , y ] = E x , y [ { x − E [ x ] } { y T − E [ y T ] } ] = E x , y [ x y T ] − E [ x ] E [ y T ]
1.2.3貝葉斯機率
使用機率論來描述模型參數(例如
w
w
w )的不肯定性,或者模型自己的選擇
貝葉斯定理:
在觀察到數據以前,有一些關於參數
w
w
w 的假設,以先驗機率
p
(
w
)
p(w)
p ( w ) 的形式給出;
觀察數據
D
=
{
t
1
,
…
,
t
N
}
\mathcal D=\left\{t_1,\ldots,t_N\right\}
D = { t 1 , … , t N } 的效果經過條件機率
p
(
D
∣
w
)
p(\mathcal D|w)
p ( D ∣ w ) 表達
p
(
w
∣
D
)
=
p
(
D
∣
w
)
p
(
w
)
p
(
D
)
p(\boldsymbol w|\mathcal D)=\frac{p(\mathcal D|\boldsymbol w) p(\boldsymbol w)}{p(\mathcal D)}
p ( w ∣ D ) = p ( D ) p ( D ∣ w ) p ( w ) 其中
p
(
D
∣
w
)
p(\mathcal D|w)
p ( D ∣ w ) 是似然函數,由觀測數據集
D
\mathcal D
D 來估計,當作參數向量
w
w
w 的函數。表達了在不一樣參數向量
w
w
w 下,觀測數據出現的可能性的大小。它不是
w
w
w 的機率分佈,關於
w
w
w 的積分並不(必定)等於1.
貝葉斯定理的天然語言表述
p
o
s
t
e
r
i
o
r
∝
l
i
k
e
h
o
o
d
×
p
r
i
o
r
posterior \propto likehood\times prior
p o s t e r i o r ∝ l i k e h o o d × p r i o r 貝葉斯公式的分母是一個歸一化常數,積分爲1.對公式兩側關於
w
w
w 進行積分,獲得貝葉斯定理的分母:
p
(
D
)
=
∫
p
(
D
∣
w
)
p
(
w
)
d
w
p(\mathcal D)=\int p(\mathcal D|\boldsymbol w)p(\boldsymbol w)d\boldsymbol w
p ( D ) = ∫ p ( D ∣ w ) p ( w ) d w
似然函數(likehood function):
p
(
D
∣
w
)
p(\mathcal D|\boldsymbol w)
p ( D ∣ w )
頻率學家的觀點:
w
w
w 被認爲是一個固定的參數,它的值由某種形式的「估計」肯定,這個估計的偏差經過考察可能的數據集
D
\mathcal D
D 的機率分佈來獲得
貝葉斯的觀點:只有一個數據集
D
\mathcal D
D (即實際觀測到的數據集)參數的不肯定性經過
w
w
w 的機率分佈來表達用極大似然估計,其中
w
w
w 的值是使似然函數
p
(
D
∣
w
)
p(\mathcal D|w)
p ( D ∣ w ) 達到最大值的
w
w
w 值,即選擇使觀察到的數據集出現機率最大的
w
w
w 的值
批評:先驗機率的選擇一般是爲了計算的方便而不是爲了反映出任何先驗的知識;對於先驗選擇的依賴性
困難:計算複雜
極大似然估計,其中
w
\boldsymbol w
w 的值是使似然函數
p
(
D
∣
w
)
p(\mathcal D|\boldsymbol w)
p ( D ∣ w ) 達到最大值的
w
\boldsymbol w
w 值,即選擇使觀察到的數據集出現機率最大的
w
\boldsymbol w
w 的值
偏差函數:似然函數的負對數,單調遞減。最大化似然函數等價於最小化偏差函數
1.2.4高斯分佈(gaussian/normal)
一元實值變量
x
x
x :
N
(
x
∣
μ
,
σ
2
)
=
1
(
2
π
σ
2
)
1
2
exp
{
−
1
2
σ
2
(
x
−
μ
)
2
}
\mathcal N(x|\mu,\sigma ^2)=\frac{1}{(2\pi \sigma ^2)^{\frac{1}{2}}}\exp \left\{-\frac{1}{2\sigma^2}(x-\mu)^2\right\}
N ( x ∣ μ , σ 2 ) = ( 2 π σ 2 ) 2 1 1 exp { − 2 σ 2 1 ( x − μ ) 2 }
μ
\mu
μ 均值,
σ
2
\sigma ^2
σ 2 方差,
β
=
1
σ
2
\beta =\frac{1}{\sigma ^2}
β = σ 2 1 精度(precision)
D
D
D 維
x
\boldsymbol x
x :
N
(
x
∣
μ
,
∑
)
=
1
(
2
π
)
D
2
1
∣
∑
∣
1
2
exp
{
−
1
2
(
x
−
μ
)
T
∑
−
1
(
x
−
μ
)
}
\mathcal N(\boldsymbol x|\boldsymbol \mu, \sum)=\frac{1}{(2\pi)^{\frac{D}{2}} } \frac{1}{\left|\sum\right|^{\frac{1}{2}}}\exp\left\{-\frac{1}{2}(\boldsymbol x-\boldsymbol \mu)^T \begin{matrix}\sum^{-1}(\boldsymbol x-\boldsymbol \mu)\end{matrix} \right\}
N ( x ∣ μ , ∑ ) = ( 2 π ) 2 D 1 ∣ ∑ ∣ 2 1 1 exp { − 2 1 ( x − μ ) T ∑ − 1 ( x − μ ) } 其中
D
D
D 維向量
μ
\mu
μ 是均值,
D
×
D
D\times D
D × D 的矩陣
∑
\sum
∑ 是協方差,
∣
∑
∣
|\sum|
∣ ∑ ∣ 是行列式
最大似然法:
觀測數據集
x
=
(
x
1
,
…
,
x
N
)
T
\boldsymbol {\mathrm x}=(x_1,\ldots,x_N)^T
x = ( x 1 , … , x N ) T ,表示標量變量
x
x
x 的
N
N
N 次觀測,區別向量
x
\boldsymbol x
x 變量
(
x
1
,
…
,
x
d
)
T
(x_1,\ldots,x_d)^T
( x 1 , … , x d ) T
獨立同分布(independent and identically distributed):獨立地從相同的數據點中抽取的數據點,縮寫i.i.d
數據集
x
\boldsymbol {\mathrm x}
x 的機率(即高斯分佈的似然函數)爲
p
(
x
∣
μ
,
σ
2
)
=
∏
n
=
1
N
N
(
x
n
∣
μ
,
σ
2
)
p(\boldsymbol {\mathrm x}|\mu,\sigma ^2)=\prod_{n=1}^N \mathcal N(x_n|\mu,\sigma ^2)
p ( x ∣ μ , σ 2 ) = n = 1 ∏ N N ( x n ∣ μ , σ 2 ) 對數似然函數爲
ln
p
(
x
∣
μ
,
σ
2
)
=
−
1
2
σ
2
∑
n
=
1
N
(
x
n
−
μ
)
2
−
N
2
ln
σ
2
−
N
2
ln
(
2
π
)
\ln p(\boldsymbol {\mathrm x}|\mu,\sigma ^2)=-\frac{1}{2\sigma ^2}\sum_{n=1}^N(x_n-\mu)^2-\frac{N}{2}\ln \sigma^2-\frac{N}{2}\ln(2\pi)
ln p ( x ∣ μ , σ 2 ) = − 2 σ 2 1 n = 1 ∑ N ( x n − μ ) 2 − 2 N ln σ 2 − 2 N ln ( 2 π )
μ
\mu
μ 的最大似然解爲
μ
M
L
=
1
N
∑
n
=
1
N
x
n
=
x
ˉ
\mu_{ML}=\frac{1}{N}\sum _{n=1}^Nx_n=\bar x
μ M L = N 1 n = 1 ∑ N x n = x ˉ 即爲樣本均值。
σ
2
\sigma ^2
σ 2 的最大似然解爲
σ
M
L
2
=
1
N
∑
n
=
1
N
(
x
n
−
μ
M
L
)
2
=
M
2
\sigma_{ML}^2=\frac{1}{N}\sum_{n=1}^N(x_n-\mu_{ML})^2=M_2
σ M L 2 = N 1 n = 1 ∑ N ( x n − μ M L ) 2 = M 2 Z這是關於樣本均值
μ
M
L
\mu_{ML}
μ M L 的樣本方差,也是二階樣本中心矩
M
2
M_2
M 2 。
E
[
μ
M
L
]
=
μ
\mathbb E[\mu_{ML}]=\mu
E [ μ M L ] = μ
E
[
σ
M
L
2
]
=
(
N
−
1
N
)
σ
2
\mathbb E[\sigma_{ML}^2]=(\frac{N-1}{N})\sigma^2
E [ σ M L 2 ] = ( N N − 1 ) σ 2
能夠看出最大似然估計的均值正確,可是最大似然求出的方差估計不是方差的無偏估計,低估了方差。這是一種叫作偏移(bias)的現象,與多項式曲線擬合問題中遇到的過擬合問題相關。在實際應用中,只要
N
N
N 不過小,那麼偏移的現象就不是個大問題。可是咱們更多地關注帶有不少參數的複雜模型,它們的最大似然的偏移問題會更加嚴重。實際上,最大似然的偏移問題是咱們在多項式曲線擬合問題中遇到的過擬合問題的核心。以下圖:
所以將
M
2
M_2
M 2 的分母
N
N
N 修正爲
N
−
1
N-1
N − 1 得到樣本方差,此時纔是對方差參數的估計是無偏的。以下:
σ
~
2
=
N
−
1
N
σ
M
L
2
=
1
N
−
1
∑
n
=
1
N
(
x
n
−
μ
M
L
)
2
=
S
2
\tilde \sigma^2=\frac{N-1}{N}\sigma_{ML}^2=\frac{1}{N-1}\sum_{n=1}^N(x_n-\mu_{ML})^2=S_2
σ ~ 2 = N N − 1 σ M L 2 = N − 1 1 n = 1 ∑ N ( x n − μ M L ) 2 = S 2 上式
E
[
σ
M
L
2
]
=
(
N
−
1
N
)
σ
2
\mathbb E[\sigma_{ML}^2]=(\frac{N-1}{N})\sigma^2
E [ σ M L 2 ] = ( N N − 1 ) σ 2 的推導以下:
∑
n
=
1
N
(
x
n
−
μ
M
L
)
2
=
∑
n
=
1
N
[
(
x
n
−
μ
)
−
(
x
ˉ
−
μ
)
]
2
\sum_{n=1}^N(x_n-\mu_{ML})^2=\sum_{n=1}^N[(x_n-\mu)-(\bar x-\mu)]^2
n = 1 ∑ N ( x n − μ M L ) 2 = n = 1 ∑ N [ ( x n − μ ) − ( x ˉ − μ ) ] 2
=
∑
n
=
1
N
(
x
n
−
μ
)
2
−
2
(
x
ˉ
−
μ
)
∑
n
=
1
N
(
x
n
−
μ
)
+
n
(
x
ˉ
−
μ
)
2
=\sum_{n=1}^N(x_n-\mu)^2-2(\bar x-\mu)\sum_{n=1}^N(x_n-\mu)+n(\bar x-\mu)^2
= n = 1 ∑ N ( x n − μ ) 2 − 2 ( x ˉ − μ ) n = 1 ∑ N ( x n − μ ) + n ( x ˉ − μ ) 2
=
∑
n
=
1
N
(
x
n
−
μ
)
2
−
2
(
x
ˉ
−
μ
)
n
(
x
ˉ
−
μ
)
+
n
(
x
ˉ
−
μ
)
2
=
∑
n
=
1
N
(
x
n
−
μ
)
2
−
n
(
x
ˉ
−
μ
)
2
=\sum_{n=1}^N(x_n-\mu)^2-2(\bar x-\mu)n(\bar x-\mu)+n(\bar x-\mu)^2=\sum_{n=1}^N(x_n-\mu)^2-n(\bar x-\mu)^2
= n = 1 ∑ N ( x n − μ ) 2 − 2 ( x ˉ − μ ) n ( x ˉ − μ ) + n ( x ˉ − μ ) 2 = n = 1 ∑ N ( x n − μ ) 2 − n ( x ˉ − μ ) 2
即
∑
n
=
1
N
(
x
n
−
μ
M
L
)
2
=
∑
n
=
1
N
(
x
n
−
μ
)
2
−
n
(
x
ˉ
−
μ
)
2
\sum_{n=1}^N(x_n-\mu_{ML})^2=\sum_{n=1}^N(x_n-\mu)^2-n(\bar x-\mu)^2
n = 1 ∑ N ( x n − μ M L ) 2 = n = 1 ∑ N ( x n − μ ) 2 − n ( x ˉ − μ ) 2 而
E
[
(
x
n
−
μ
)
2
]
=
v
a
r
[
x
i
]
=
σ
2
\mathbb E[(x_n-\mu)^2]=var[x_i]=\sigma ^2
E [ ( x n − μ ) 2 ] = v a r [ x i ] = σ 2
E
[
(
x
ˉ
−
μ
)
2
]
=
v
a
r
[
x
ˉ
]
=
v
a
r
[
1
N
∑
n
=
1
N
x
n
]
=
1
N
∑
n
=
1
N
v
a
r
[
x
n
]
=
σ
2
N
\mathbb E[(\bar x-\mu)^2]=var[\bar x]=var[\frac{1}{N}\sum _{n=1}^Nx_n]=\frac{1}{N}\sum _{n=1}^Nvar[x_n]=\frac{\sigma^2}{N}
E [ ( x ˉ − μ ) 2 ] = v a r [ x ˉ ] = v a r [ N 1 n = 1 ∑ N x n ] = N 1 n = 1 ∑ N v a r [ x n ] = N σ 2
因此
E
[
σ
M
L
2
]
=
E
[
1
N
∑
n
=
1
N
(
x
n
−
μ
M
L
)
2
]
=
1
N
E
[
∑
n
=
1
N
(
x
n
−
μ
M
L
)
2
]
\mathbb E[\sigma_{ML}^2]=\mathbb E[\frac{1}{N}\sum_{n=1}^N(x_n-\mu_{ML})^2]=\frac{1}{N}\mathbb E[\sum_{n=1}^N(x_n-\mu_{ML})^2]
E [ σ M L 2 ] = E [ N 1 n = 1 ∑ N ( x n − μ M L ) 2 ] = N 1 E [ n = 1 ∑ N ( x n − μ M L ) 2 ]
=
1
N
E
[
∑
n
=
1
N
(
x
n
−
x
ˉ
)
2
]
=
1
N
(
∑
n
=
1
N
σ
2
−
N
σ
2
N
)
=
(
N
−
1
N
)
σ
2
=\frac{1}{N}\mathbb E[\sum_{n=1}^N(x_n-\bar x)^2]=\frac{1}{N}(\sum_{n=1}^N\sigma^2-N\frac{\sigma^2}{N})=(\frac{N-1}{N})\sigma^2
= N 1 E [ n = 1 ∑ N ( x n − x ˉ ) 2 ] = N 1 ( n = 1 ∑ N σ 2 − N N σ 2 ) = ( N N − 1 ) σ 2
1.2.5從新考慮曲線擬合問題
曲線擬合的目標:
N
N
N 個輸入x
=
(
x
1
,
…
,
x
N
)
= {(x_1,\ldots,x_N)}
= ( x 1 , … , x N ) 和對應的目標值t
=
(
t
1
,
…
,
t
N
)
=(t_1,\ldots,t_N)
= ( t 1 , … , t N ) ,在給出輸入變量
x
x
x 的新值的狀況下,對目標變量
t
t
t 進行預測。
用機率分佈來表達關於目標變量的值的不肯定性。作法以下:
給定
x
x
x 的值,對應的
t
t
t 值服從高斯分佈,分佈的均值爲
y
(
x
,
w
)
y(x,\boldsymbol w)
y ( x , w ) 。所以有
p
(
t
∣
x
,
w
,
β
)
=
N
(
t
∣
y
(
x
,
w
)
,
β
−
1
)
)
p(t|x,\boldsymbol w,\beta)=\mathcal N(t|y(x,\boldsymbol w),\beta^{-1}))
p ( t ∣ x , w , β ) = N ( t ∣ y ( x , w ) , β − 1 ) )
用訓練數據{x ,t }經過最大似然法決定未知參數
w
\boldsymbol w
w 和
β
\beta
β 的值
似然函數:
p
(
t
∣
x
,
w
,
β
)
=
∏
n
=
1
N
N
(
t
n
∣
y
(
x
n
,
w
)
,
β
−
1
)
)
p(\boldsymbol {\mathrm t}|\boldsymbol {\mathrm x},\boldsymbol w,\beta)=\prod_{n=1}^N\mathcal N(t_n|y(x_n,\boldsymbol w),\beta^{-1}))
p ( t ∣ x , w , β ) = n = 1 ∏ N N ( t n ∣ y ( x n , w ) , β − 1 ) ) 對數似然函數:
ln
p
(
t
∣
x
,
w
,
β
)
=
−
β
2
∑
n
=
1
N
{
y
(
x
n
,
w
)
−
t
n
}
2
+
N
2
ln
β
−
N
2
ln
(
2
π
)
\ln p(\boldsymbol {\mathrm t}|\boldsymbol {\mathrm x},\boldsymbol w,\beta)=-\frac{\beta}{2}\sum_{n=1}^N\left\{y(x_n,\boldsymbol w)-t_n\right\}^2+\frac{N}{2}\ln \beta-\frac{N}{2}\ln (2\pi)
ln p ( t ∣ x , w , β ) = − 2 β n = 1 ∑ N { y ( x n , w ) − t n } 2 + 2 N ln β − 2 N ln ( 2 π ) 考慮多項式係數的最大似然解(
w
M
L
\boldsymbol w_{ML}
w M L ):
由上式中與
w
\boldsymbol w
w 有關的式子肯定。省略最後兩項,且使用一個正的常數係數來縮放對數似然函數並不會改變關於
w
\boldsymbol w
w 的最大值的位置,所以用
1
2
\frac{1}{2}
2 1 來代替係數
β
2
\frac{\beta}{2}
2 β 。最後等價地最小化負對數似然函數。因而最大化似然函數等價於最小化平方和偏差函數。所以,在高斯噪聲的假設下,平方偏差函數是最大化似然函數的一個天然結果。
考慮精度
β
M
L
\beta_{ML}
β M L :
1
β
M
L
=
1
N
∑
n
=
1
N
{
y
(
x
n
,
w
M
L
)
−
t
n
}
2
\frac{1}{\beta_{ML}}=\frac{1}{N}\sum_{n=1}^N\left\{y(x_n,\boldsymbol w_{ML})-t_n\right\}^2
β M L 1 = N 1 n = 1 ∑ N { y ( x n , w M L ) − t n } 2
對新的
x
x
x 的值進行預測
如今有一個機率模型,預測能夠經過給出
t
t
t 的機率分佈的預測分佈來表示
預測分佈:
p
(
t
∣
x
,
w
M
L
,
β
M
L
)
=
N
(
t
∣
y
(
x
,
w
M
L
)
,
β
M
L
−
1
)
)
p(t|x,\boldsymbol w_{ML},\beta_{ML})=\mathcal N(t|y(x,\boldsymbol w_{ML}),\beta_{ML}^{-1}))
p ( t ∣ x , w M L , β M L ) = N ( t ∣ y ( x , w M L ) , β M L − 1 ) ) 引入在多項式係數
w
\boldsymbol w
w 上的先驗分佈:
p
(
w
∣
α
)
=
N
(
w
∣
y
(
0
,
α
−
1
I
)
=
(
α
2
π
)
M
+
1
2
exp
{
−
α
2
w
T
w
}
p(\boldsymbol w|\alpha)=\mathcal N(\boldsymbol w|y(\boldsymbol 0,\alpha ^{-1}\boldsymbol I)=(\frac{\alpha}{2\pi})^{\frac{M+1}{2}}\exp\left\{-\frac{\alpha}{2}\boldsymbol w^T\boldsymbol w\right\}
p ( w ∣ α ) = N ( w ∣ y ( 0 , α − 1 I ) = ( 2 π α ) 2 M + 1 exp { − 2 α w T w } 其中
α
\alpha
α 是預測分佈的精度,是超參數(控制模型參數分佈的參數)。
M
+
1
M+1
M + 1 是對於
M
M
M 階多項式的向量
w
\boldsymbol w
w 的元素的總數
使用貝葉斯定理:
p
(
w
∣
x
,
t
,
α
,
β
)
∝
p
(
t
∣
x
,
w
,
β
)
p
(
w
∣
α
)
p(\boldsymbol w|\boldsymbol {\mathrm x},\boldsymbol {\mathrm t},\alpha,\beta)\propto p(\boldsymbol {\mathrm t}|\boldsymbol {\mathrm x},\boldsymbol w,\beta)p(\boldsymbol w|\alpha)
p ( w ∣ x , t , α , β ) ∝ p ( t ∣ x , w , β ) p ( w ∣ α ) 最大化後驗機率肯定
w
\boldsymbol w
w ----最大後驗(maximum posterior),簡稱MAP:
即最小化下式:
β
2
∑
n
=
1
N
{
y
(
x
n
,
w
M
L
)
−
t
n
}
2
+
α
2
w
T
w
\frac{\beta}{2}\sum_{n=1}^N\left\{y(x_n,\boldsymbol w_{ML})-t_n\right\}^2+\frac{\alpha}{2}\boldsymbol w^T\boldsymbol w
2 β n = 1 ∑ N { y ( x n , w M L ) − t n } 2 + 2 α w T w 所以最大化後驗機率等價於最小化正則化的平方和偏差函數,正則化參數爲
λ
=
α
β
\lambda=\frac{\alpha}{\beta}
λ = β α
1.2.6貝葉斯曲線擬合
1.2.5中的問題:雖然有先驗分佈
p
(
w
∣
α
)
p(\boldsymbol w|\alpha)
p ( w ∣ α ) ,但仍在進行
w
w
w 的點估計。
純粹的貝葉斯方法:自始至終地應用機率的加法規則和乘法規則。這須要對全部
w
\boldsymbol w
w 值進行積分。這種積分對模式識別來講是貝葉斯方法的核心。
曲線擬合問題中,訓練數據x 和t ,新的測試點
x
x
x ,預測
t
t
t 的值。即估計預測分佈
p
(
t
∣
x
,
x
,
t
)
p(t|x,\boldsymbol {\mathrm x},\boldsymbol {\mathrm t})
p ( t ∣ x , x , t ) 。這裏要假設參數
α
\alpha
α 和
β
\beta
β 是固定的,事先知道的(??)
預測機率:
p
(
t
∣
x
,
x
,
t
)
=
∫
p
(
t
∣
x
,
w
)
p
(
w
∣
x
,
t
)
d
w
p(t|x,\boldsymbol {\mathrm x},\boldsymbol {\mathrm t})=\int p(t|x,\boldsymbol w)p(\boldsymbol w|\boldsymbol {\mathrm x},\boldsymbol {\mathrm t})d\boldsymbol w
p ( t ∣ x , x , t ) = ∫ p ( t ∣ x , w ) p ( w ∣ x , t ) d w 其中
p
(
t
∣
x
,
w
)
p(t|x,\boldsymbol w)
p ( t ∣ x , w ) 忽略了對
α
\alpha
α 和
β
\beta
β 的依賴。
p
(
w
∣
x
,
t
)
p(\boldsymbol w|\boldsymbol {\mathrm x},\boldsymbol {\mathrm t})
p ( w ∣ x , t ) 是參數的後驗分佈,是一個高斯分佈,能夠解析地求出
p
(
t
∣
x
,
x
,
t
)
=
N
(
t
∣
m
(
x
)
,
s
2
(
x
)
)
p(t|x,\boldsymbol {\mathrm x},\boldsymbol {\mathrm t})=\mathcal N(t|m(x),s^2(x))
p ( t ∣ x , x , t ) = N ( t ∣ m ( x ) , s 2 ( x ) ) 均值和方差爲
m
(
x
)
=
β
ϕ
(
x
)
T
S
∑
n
=
1
N
ϕ
(
x
n
)
t
n
m(x)=\beta \phi(x)^T\boldsymbol S\sum_{n=1}^N\phi (x_n)t_n
m ( x ) = β ϕ ( x ) T S n = 1 ∑ N ϕ ( x n ) t n
s
2
(
x
)
=
β
−
1
+
ϕ
(
x
)
T
S
ϕ
(
x
)
s^2(x)=\beta^{-1}+\phi(x)^T\boldsymbol S\phi(x)
s 2 ( x ) = β − 1 + ϕ ( x ) T S ϕ ( x )
能夠看出預測分佈的均值和方差依賴於
x
x
x 。方差的第一項表示預測值
t
t
t 的不肯定性,這種不肯定性由目標變量上的噪聲形成。在最大似然的預測分佈中,這種不肯定性經過
β
M
L
−
1
\beta_{ML}^{-1}
β M L − 1 表達
其中矩陣
S
\boldsymbol S
S 由下式給出。方差的第二項對參數
w
\boldsymbol w
w 的不肯定性有影響。
S
−
1
=
α
I
+
β
∑
n
=
1
N
ϕ
(
x
n
)
ϕ
(
x
n
)
T
\boldsymbol S^{-1}=\alpha \boldsymbol I+\beta\sum_{n=1}^N\phi(x_n)\phi(x_n)^T
S − 1 = α I + β n = 1 ∑ N ϕ ( x n ) ϕ ( x n ) T 其中向量
ϕ
(
x
)
\phi(x)
ϕ ( x ) 被定義爲
ϕ
i
(
x
)
=
x
i
(
i
=
0
,
…
,
M
)
\phi_i(x)=x^i(i=0,\ldots,M)
ϕ i ( x ) = x i ( i = 0 , … , M )
1.3模型選擇
擬合多項式曲線例子
多項式的階數控制了模型的自由參數的個數,所以控制了模型的複雜度
正則化係數
λ
\lambda
λ 也控制了模型複雜度
更復雜的模型如混合分佈或神經網絡
可能存在多個控制模型複雜度的參數
模型選擇:
缺點:須要進行訓練的次數隨着
S
S
S 而增長,耗時;對於一個單一的模型,可能有多個 複雜度參數(如可能有若干個正則化參數),最壞的狀況下探索這些參數的組合所需的訓練次數多是參數個數的指數函數。
信息準則(information criteria)
增長一個懲罰項來補償過於複雜的模型形成的過擬合
如:赤池信息準則(akaike information criteria)or AIC
ln
(
D
∣
w
M
L
)
−
M
\ln(\mathcal D|w_{ML})-M
ln ( D ∣ w M L ) − M 選擇使這個量最大的模型。
p
(
D
∣
w
M
L
)
p(\mathcal D|w_{ML})
p ( D ∣ w M L ) 是最合適的對數似然函數,
M
M
M 是模型中可調節參數的數量。
缺點:沒有考慮模型參數的不肯定性,在實際應用中傾向於選擇過於簡單的模型
1.4維數災難
考慮一我的工合成的數據集,每一個數據點由一個12維的輸入向量組成,給出數據集裏的100個點的兩個份量
x
6
x_6
x 6 和
x
7
x_7
x 7 ,預測「叉點」的類別
一種簡單的方法:
把輸入空間劃分紅小的單元格,首先判斷測試點屬於哪一個單元格,尋找訓練集中落在同一個單元格中的訓練數據點。測試點的類別就是測試點所在的單元格中數量最多的訓練數據點的類別。
問題:
把空間的區域分割成一個個的單元格,單元格的數量會隨着空間的維數以指數的形式增大。爲了保證單元格不爲空,須要指數量級的訓練數據。
考慮多項式擬合的問題。假設有
D
D
D 個輸入變量,三階多項式以下:
y
(
x
,
w
)
=
w
o
+
∑
i
=
1
D
w
i
x
i
+
∑
i
=
1
D
∑
j
=
1
D
w
i
j
x
i
x
j
+
∑
i
=
1
D
∑
j
=
1
D
∑
k
=
1
D
w
i
j
k
x
i
x
j
x
k
y(\boldsymbol x,\boldsymbol w)=w_o+\sum_{i=1}^Dw_ix_i+\sum_{i=1}^D \sum_{j=1}^Dw_{ij}x_ix_j+\sum_{i=1}^D\sum_{j=1}^D\sum_{k=1}^Dw_{ijk}x_ix_jx_k
y ( x , w ) = w o + i = 1 ∑ D w i x i + i = 1 ∑ D j = 1 ∑ D w i j x i x j + i = 1 ∑ D j = 1 ∑ D k = 1 ∑ D w i j k x i x j x k 隨着
D
D
D 的增長,獨立的係數的數量的增加速度正比於
D
3
D^3
D 3 。對於一個
M
M
M 飢階多項式,係數數量增加速度相似於
D
M
D^M
D M
考慮
D
D
D 維空間的一個半徑
r
=
1
r=1
r = 1 的球體,位於半徑
r
=
1
−
ϵ
r=1-\epsilon
r = 1 − ϵ 和半徑
r
=
1
r=1
r = 1 之間的部分佔球的整體積的百分比
V
D
(
r
)
=
K
D
r
D
V_D(r)=K_Dr^D
V D ( r ) = K D r D 其中常數
K
D
K_D
K D 值依賴於
D
D
D ,體積比爲
V
D
(
1
)
−
V
D
(
1
−
ϵ
)
V
D
(
1
)
=
1
−
(
1
−
ϵ
)
D
\frac{V_D(1)-V_D(1-\epsilon)}{V_D(1)}=1-(1-\epsilon)^D
V D ( 1 ) V D ( 1 ) − V D ( 1 − ϵ ) = 1 − ( 1 − ϵ ) D 對於較大的
D
D
D ,體積比趨近於1。所以,在高維空間中,一個球體的大部分體積都彙集在表面附近的薄球殼上。
考慮高維空間的高斯分佈。從笛卡爾座標系變化到極座標系,把方向變量積分出來即機率密度的表達式
p
(
r
)
p(r)
p ( r ) ,它是關於距離原點的半徑
r
r
r 的函數。
p
(
r
)
δ
r
p(r)\delta r
p ( r ) δ r 是位於半徑
r
r
r 處厚度爲
δ
r
\delta r
δ r 的薄球殼內部的機率質量。
能夠看到,對於大的
D
D
D 值,高斯分佈的機率質量集中在薄球殼處。
1.5決策論
不肯定的狀況下作出最優的決策。具體地,如前面所述的輸入向量
x
x
x 和對應的目標值向量
t
t
t ,決策論的主題就是對
t
t
t 的值作出具體的預測,根據對
t
t
t 的可能去值得理解,採起一個具體的動做。
考慮一個醫療診斷問題,給病人拍了X光片,診斷是否得了癌症
輸入向量
x
\boldsymbol x
x 是X光片的像素的灰度值集合,輸出變量
t
\boldsymbol t
t 表示患有癌症(類
C
1
C_1
C 1 )或不患癌症(類
C
2
C_2
C 2 )
p
(
C
k
∣
x
)
=
p
(
x
∣
C
k
)
p
(
C
k
)
p
(
x
)
p(\mathcal C_k|\boldsymbol x)=\frac{p(\boldsymbol x|\mathcal C_k)p(\mathcal C_k)}{p(\boldsymbol x)}
p ( C k ∣ x ) = p ( x ) p ( x ∣ C k ) p ( C k ) 目標:最小化把
x
\boldsymbol x
x 分到錯誤類別中的可能性
相關概念:
決策區域(decision region):把輸入空間切分紅不一樣的區域
R
k
\mathcal R_k
R k ,每一個類別都有一個決策區域,區域
R
k
\mathcal R_k
R k 中的全部點都被分到
C
k
\mathcal C_k
C k 類。注意,每個決策區域未必是連續的,能夠由若干個分離的區域組成
決策邊界(decision boundary)或決策面(desicion surface):決策區域的邊界
1.5.1最小化錯誤分類率
錯誤分類的機率:
p
(
m
i
s
t
a
k
e
)
=
p
(
x
∈
R
1
,
C
2
)
+
p
(
x
∈
R
2
,
C
1
)
=
∫
R
1
p
(
x
,
c
2
)
d
x
+
∫
R
2
p
(
x
,
c
1
)
d
x
p(\mathrm{mistake})=p(\boldsymbol x\in \mathcal R_1,\mathcal C_2)+p(\boldsymbol x \in \mathcal R_2,\mathcal C_1)=\int_{\mathcal R_1} {p(\boldsymbol x,\mathcal c_2)d \boldsymbol x}+\int_{\mathcal R_2}{p(\boldsymbol x,\mathcal c_1)d \boldsymbol x}
p ( m i s t a k e ) = p ( x ∈ R 1 , C 2 ) + p ( x ∈ R 2 , C 1 ) = ∫ R 1 p ( x , c 2 ) d x + ∫ R 2 p ( x , c 1 ) d x 最小化
p
(
m
i
s
t
a
k
e
)
p(\mathrm{mistake})
p ( m i s t a k e ) , 應該讓被積函數儘可能小。所以,給定的
x
\boldsymbol x
x 值,若
p
(
x
,
C
1
)
>
p
(
x
,
C
2
)
p(\boldsymbol x,\mathcal C_1)>p(\boldsymbol x,\mathcal C_2)
p ( x , C 1 ) > p ( x , C 2 ) ,則把
x
\boldsymbol x
x 分到類別
C
1
\mathcal C_1
C 1 中
p
(
x
,
C
k
)
=
p
(
C
k
∣
x
)
p
(
x
)
p(\boldsymbol x,\mathcal C_k)=p(\mathcal C_k|\boldsymbol x)p(\boldsymbol x)
p ( x , C k ) = p ( C k ∣ x ) p ( x ) 兩項的
p
(
x
)
p(\boldsymbol x)
p ( x ) 相同,所以,若把每一個
x
\boldsymbol x
x 分配到後驗機率
p
(
C
k
∣
x
)
p(\mathcal C_k|\boldsymbol x)
p ( C k ∣ x ) 最大的類別中,分類錯誤的機率就最小
最大化正確率 :
p
(
c
o
r
r
e
c
t
)
=
∑
k
=
1
K
p
(
x
∈
R
k
,
C
k
)
=
∑
k
=
1
K
p
(
x
,
C
k
)
d
x
p(\mathrm {correct})=\sum_{k=1}^{K}p(\boldsymbol x \in \mathcal R_k,\mathcal C_k)=\sum_{k=1}^Kp(\boldsymbol x,\mathcal C_k)d\boldsymbol x
p ( c o r r e c t ) = k = 1 ∑ K p ( x ∈ R k , C k ) = k = 1 ∑ K p ( x , C k ) d x 當區域
R
k
\mathcal R_k
R k 的選擇使得每一個
x
\boldsymbol x
x 都被分到使
p
(
x
,
C
k
)
p(\boldsymbol x,\mathcal C_k)
p ( x , C k ) 最大的類別中時,上式取得最大值
p
(
x
,
C
k
)
=
p
(
C
k
∣
x
)
p
(
x
)
p(\boldsymbol x,\mathcal C_k)=p(\mathcal C_k|\boldsymbol x)p(\boldsymbol x)
p ( x , C k ) = p ( C k ∣ x ) p ( x ) 全部項的
p
(
x
)
p(\boldsymbol x)
p ( x ) 相同,每一個
x
\boldsymbol x
x 都應該分配到後驗機率
p
(
C
k
∣
x
)
p(\mathcal C_k|\boldsymbol x)
p ( C k ∣ x ) 最大的類別中
1.5.2最小化指望損失
不少應用下,目標不只僅是單純地最小化錯誤分類的數量。如醫療診斷的問題,有如下兩種錯誤及其結果:
錯誤1:沒有患癌症的病人錯誤地診斷爲患病 ;結果:可能給病人帶來一些壓力,且病人可能須要進一步確診
錯誤2:給患癌症的病人診斷爲健康 ; 結果:可能會由於缺乏治療而使病人過早死亡
這兩種錯誤的結果是不一樣的。第二種錯誤更致命,甚至因爲少犯第二種錯誤會致使第一種錯誤增長也不要緊。
損失函數(loss function):也叫代價函數(cost function)。是對於全部可能的決策或者動做可能產生的損失的一種總體的度量。有學者考慮效用函數(utility function),最大化效用函數
目標:最小化總體的損失
對於新的
x
\boldsymbol x
x 的值,真實的類別是
C
k
\mathcal C_k
C k ,把
x
\boldsymbol x
x 分類爲
C
j
\mathcal C_j
C j (其中
j
j
j 可能與
k
k
k 相等,也可能不相等),形成的損失記爲
L
k
j
L_{kj}
L k j (損失矩陣的第
k
k
k ,
j
j
j 個元素)
最小化損失函數:
損失函數依賴於真實的類別,是未知的。對於一個給定的輸入向量
x
\boldsymbol x
x ,聯合機率分佈
p
(
x
,
C
k
)
p(\boldsymbol x,\mathcal C_k)
p ( x , C k ) 表示對於真是類別的不肯定性。所以,能夠轉化爲最小化平均損失。
平均損失:
E
[
L
]
=
∑
k
∑
j
∫
R
j
L
k
j
p
(
x
,
C
k
)
d
x
\mathbb E[L]=\sum_k \sum_j \int_{\mathcal R_j} L_{kj}p(\boldsymbol x,\mathcal C_k)d\boldsymbol x
E [ L ] = k ∑ j ∑ ∫ R j L k j p ( x , C k ) d x 目標是選擇區域
R
j
\mathcal R_j
R j ,最小化指望損失。代表對於每一個
x
\boldsymbol x
x ,最小化
∑
k
L
k
j
p
(
x
,
C
k
)
\sum_kL_{kj}p(\boldsymbol x,\mathcal C_k)
∑ k L k j p ( x , C k ) .消掉共同因子
p
(
x
)
p(\boldsymbol x)
p ( x ) ,最小化指望損失的決策規則是對於每一個新的
x
\boldsymbol x
x ,把它分到能使下式取得最小值的第
j
j
j 類:
∑
k
L
k
j
p
(
C
k
∣
x
)
\sum_k L_{kj}p(\mathcal C_k|\boldsymbol x)
k ∑ L k j p ( C k ∣ x ) 關鍵是找後驗機率
p
(
C
k
∣
x
)
p(\mathcal C_k|\boldsymbol x)
p ( C k ∣ x )
1.5.3拒絕選項(reject option)
在發生分類錯誤的輸入空間中,後驗機率
p
(
C
k
∣
x
)
p(\mathcal C_k|\boldsymbol x)
p ( C k ∣ x ) 一般遠小於1.等價地,不一樣類別的聯合分佈
p
(
x
,
C
k
)
p(\boldsymbol x,\mathcal C_k)
p ( x , C k ) 有着可比的值。這些區域中,類別的歸屬相對不肯定。這時避免作出決策是更合適的。
如醫療例子中,合適的作法是:使用自動化的系統來對那些幾乎沒有疑問的X光片進行分類,把不容易分類的X光片留給人類的專家。
合適的方式:
引入閾值
θ
\theta
θ ;
拒絕後驗機率
p
(
C
k
∣
x
)
p(\mathcal C_k|\boldsymbol x)
p ( C k ∣ x ) 的最大值小於等於
θ
\theta
θ 的那些輸入
x
\boldsymbol x
x
θ
=
1
\theta =1
θ = 1 ,全部樣本都被拒絕;
θ
<
1
K
\theta <\frac{1}{K}
θ < K 1 ,沒有樣本被拒絕(有
K
K
K 個類別)
θ
\theta
θ 過大,棄真;$\theta $太小,納僞
1.5.4 推斷和決策
1.5.5迴歸問題的損失函數
推導一:
考慮迴歸問題,決策階段包括對於每一個輸入
x
\boldsymbol x
x ,選擇一個對於
t
t
t 值的具體的估計
y
(
x
)
y(\boldsymbol x)
y ( x ) ,形成損失
L
(
t
,
y
(
x
)
)
L(t,y(\boldsymbol x))
L ( t , y ( x ) ) 。平均損失(指望損失):
E
[
L
]
=
∫
∫
L
(
t
,
y
(
x
)
)
p
(
x
,
t
)
d
x
d
t
\mathbb E[L]=\int\int L(t,y(\boldsymbol x))p(\boldsymbol x,t)d\boldsymbol xdt
E [ L ] = ∫ ∫ L ( t , y ( x ) ) p ( x , t ) d x d t
L
(
t
,
y
(
x
)
)
=
{
y
(
x
)
−
t
}
2
L(t,y(\boldsymbol x))=\left\{y(\boldsymbol x)-t\right\}^2
L ( t , y ( x ) ) = { y ( x ) − t } 2
E
[
L
]
=
∫
∫
{
y
(
x
)
−
t
}
2
p
(
x
,
t
)
d
x
d
t
\mathbb E[L]=\int\int \left\{y(\boldsymbol x)-t\right\}^2 p(\boldsymbol x,t)d\boldsymbol xdt
E [ L ] = ∫ ∫ { y ( x ) − t } 2 p ( x , t ) d x d t
目標:選擇
y
(
x
)
y(\boldsymbol x)
y ( x ) 來最小化
E
[
L
]
\mathbb E[L]
E [ L ] .使用變分法求解
∂
E
[
L
]
∂
y
(
x
)
=
2
∫
{
y
(
x
)
−
t
}
p
(
x
,
t
)
d
t
=
0
\frac{\partial {\mathbb E[L]}}{\partial {y(\boldsymbol x)}}=2\int \left\{y(\boldsymbol x)-t\right\}p(\boldsymbol x,t)dt=0
∂ y ( x ) ∂ E [ L ] = 2 ∫ { y ( x ) − t } p ( x , t ) d t = 0 求解
y
(
x
)
y(\boldsymbol x)
y ( x ) :
∫
y
(
x
)
p
(
x
,
t
)
d
t
=
∫
t
p
(
x
,
t
)
d
t
\int y(\boldsymbol x)p(\boldsymbol x,t)dt=\int tp(\boldsymbol x,t)dt
∫ y ( x ) p ( x , t ) d t = ∫ t p ( x , t ) d t
y
(
x
)
∫
p
(
x
,
t
)
d
t
=
y
(
x
)
p
(
x
)
=
∫
t
p
(
x
,
t
)
d
t
y(\boldsymbol x)\int p(\boldsymbol x,t)dt=y(\boldsymbol x)p(\boldsymbol x)=\int tp(\boldsymbol x,t)dt
y ( x ) ∫ p ( x , t ) d t = y ( x ) p ( x ) = ∫ t p ( x , t ) d t
y
(
x
)
=
∫
t
p
(
x
,
t
)
d
t
p
(
x
)
=
∫
t
p
(
t
∣
x
)
d
t
=
E
t
[
t
∣
x
]
y(\boldsymbol x)=\frac{\int tp(\boldsymbol x,t)dt}{p(\boldsymbol x)}=\int tp(t|\boldsymbol x)dt=\mathbb E_t[t|\boldsymbol x]
y ( x ) = p ( x ) ∫ t p ( x , t ) d t = ∫ t p ( t ∣ x ) d t = E t [ t ∣ x ]
在
x
\boldsymbol x
x 的條件下
t
t
t 的條件均值----迴歸函數(regression function)。這種狀況下,最優解是條件均值
y
(
x
)
=
E
t
[
t
∣
x
]
\boldsymbol y(\boldsymbol x)=\mathbb E_t[\boldsymbol t|\boldsymbol x]
y ( x ) = E t [ t ∣ x ]
另外一種推導方法:
{
y
(
x
)
−
t
}
2
=
{
y
(
x
)
−
E
[
t
∣
x
]
+
E
[
t
∣
x
]
−
t
}
2
\left\{y(\boldsymbol x)-t\right\}^2=\left\{y(\boldsymbol x)-\mathbb E[t|\boldsymbol x]+\mathbb E[t|\boldsymbol x]-t\right\}^2
{ y ( x ) − t } 2 = { y ( x ) − E [ t ∣ x ] + E [ t ∣ x ] − t } 2
=
{
y
(
x
)
−
E
[
t
∣
x
]
}
2
+
2
{
y
(
x
)
−
E
[
t
∣
x
]
}
{
E
[
t
∣
x
]
−
t
}
+
{
E
[
t
∣
x
]
−
t
}
2
=\left\{y(\boldsymbol x)-\mathbb E[t|\boldsymbol x]\right\}^2+2\left\{y(\boldsymbol x)-\mathbb E[t|\boldsymbol x]\right\}\left\{\mathbb E[t|\boldsymbol x]-t\right\}+\left\{\mathbb E[t|\boldsymbol x]-t\right\}^2
= { y ( x ) − E [ t ∣ x ] } 2 + 2 { y ( x ) − E [ t ∣ x ] } { E [ t ∣ x ] − t } + { E [ t ∣ x ] − t } 2
其中
E
[
t
∣
x
]
=
E
t
[
t
∣
x
]
\mathbb E[t|\boldsymbol x]=\mathbb E_t[t|\boldsymbol x]
E [ t ∣ x ] = E t [ t ∣ x ] ,所以損失函數爲
E
[
L
]
=
∫
{
y
(
x
)
−
E
[
t
∣
x
]
}
2
p
(
x
)
d
x
+
∫
{
E
[
t
∣
x
]
−
t
}
2
p
(
x
)
d
x
\mathbb E[L]=\int \left\{y(\boldsymbol x)-\mathbb E[t|\boldsymbol x]\right\}^2p(\boldsymbol x)d\boldsymbol x+\int \left\{\mathbb E[t|\boldsymbol x]-t\right\}^2p(\boldsymbol x)d\boldsymbol x
E [ L ] = ∫ { y ( x ) − E [ t ∣ x ] } 2 p ( x ) d x + ∫ { E [ t ∣ x ] − t } 2 p ( x ) d x 當
y
(
x
)
=
E
[
t
∣
x
]
y(\boldsymbol x)=\mathbb E[t|\boldsymbol x]
y ( x ) = E [ t ∣ x ] 時第一項取得最小值,消掉第一項。和以前的同樣代表,最優的最⼩平⽅預測由條件均值給出。
第二項是
t
t
t 的分佈的方差,在
x
\boldsymbol x
x 上的平均。表示目標數據內在的變化性,能夠被看作噪聲,是損失函數的不可減少的最小值。
三種解決迴歸問題的方法(複雜度下降的順序):
方法一:
解決肯定聯合機率密度
p
(
x
,
t
)
p(\boldsymbol x,t)
p ( x , t ) 的推斷問題
計算條件機率密度
p
(
t
∣
x
)
p(t|\boldsymbol x)
p ( t ∣ x )
求出條件均值
方法二:
首先解決條件機率密度
p
(
t
∣
x
)
p(t|\boldsymbol x)
p ( t ∣ x ) 的推斷問題
計算條件均值
方法三:
直接從訓練數據中尋找一個迴歸函數
y
(
x
)
y(\boldsymbol x)
y ( x )
平方損失函數的一種推廣----閔可夫斯基損失函數(Minkowski loss)
指望爲
E
[
L
q
]
=
∫
∫
∣
y
(
x
)
−
t
∣
q
p
(
x
,
t
)
d
x
d
t
\mathbb E[L_q]=\int \int |y(\boldsymbol x)-t|^qp(\boldsymbol x,t)d\boldsymbol xdt
E [ L q ] = ∫ ∫ ∣ y ( x ) − t ∣ q p ( x , t ) d x d t 當q = 2時,
E
[
L
q
]
\mathbb E[L_q]
E [ L q ] 的最⼩值是條件均值。當q = 1時,
E
[
L
q
]
\mathbb E[L_q]
E [ L q ] 的最⼩值是條件中位 數。當
q
→
0
q\to 0
q → 0 時,
E
[
L
q
]
\mathbb E[L_q]
E [ L q ] 的最⼩值是條件衆數
1.6信息論
信息量:
有兩個不相關的事件
x
x
x 和
y
y
y ,
觀察到兩個事件同時發生時得到的信息等於觀察到事件各自發生時得到的信息之和,即
h
(
x
,
y
)
=
h
(
x
)
+
h
(
y
)
h(x,y)=h(x)+h(y)
h ( x , y ) = h ( x ) + h ( y ) 兩個不相關事件是統計獨立的,即
p
(
x
,
y
)
=
p
(
x
)
p
(
y
)
p(x,y)=p(x)p(y)
p ( x , y ) = p ( x ) p ( y ) 所以有
h
(
x
)
=
−
log
2
p
(
x
)
h(x)=-\log_2p(x)
h ( x ) = − log 2 p ( x ) 其中負號確保了信息⼀定是正數或者是零。信息論的廣泛傳統使用2做爲對數的底,單位是bit
隨機變量
x
x
x 的熵:
假設想傳輸一個隨機變量
x
x
x 的值,傳輸的平均信息量(即指望)爲
H
[
x
]
=
−
∑
x
p
(
x
)
log
2
p
(
x
)
H[x]=-\sum_xp(x)\log_2p(x)
H [ x ] = − x ∑ p ( x ) log 2 p ( x ) 注意
lim
p
→
0
p
log
)
2
p
(
x
)
=
0
\lim_{p\to 0}p\log)2p(x)=0
lim p → 0 p log ) 2 p ( x ) = 0 ,所以只要有
x
x
x 使得
p
(
x
)
=
0
p(x)=0
p ( x ) = 0 ,就該令
p
(
x
)
log
2
p
(
x
)
=
0
p(x)\log_2p(x)=0
p ( x ) log 2 p ( x ) = 0
非均勻分佈比均勻分佈的熵小。
熵是傳輸一個隨機變量狀態值所需的比特位的下界。
編碼的平均長度:
使用更短的編碼描述更可能的事件,更長的編碼描述不太可能的事件
使用編碼串:0、十、1十、11十、111100、11110一、1111十、111111表示狀態{
a
,
b
,
c
,
d
,
e
,
f
,
g
,
h
a,b,c,d,e,f,g,h
a , b , c , d , e , f , g , h }
傳輸的編碼的平均長度是
a
v
e
r
a
g
e
c
o
d
e
l
e
n
g
t
h
=
1
2
×
1
+
1
4
×
2
+
1
8
×
3
+
1
16
×
4
+
4
×
1
64
×
6
=
2
b
i
t
s
average code length=\frac{1}{2}\times 1+\frac{1}{4}\times 2+\frac{1}{8}\times 3+\frac{1}{16}\times 4+4\times \frac{1}{64}\times 6=2 bits
a v e r a g e c o d e l e n g t h = 2 1 × 1 + 4 1 × 2 + 8 1 × 3 + 1 6 1 × 4 + 4 × 6 4 1 × 6 = 2 b i t s 注意不能使用更短的編碼串,由於必須可以從多個這種字符串的拼接中分割出各個獨立的字符串。如11001110惟一的編碼了狀態序列
c
,
a
,
d
c,a,d
c , a , d
熵等同於最短編碼長度
熵的理解:
最先源於物理學,描述統計力學中的無序程度的度量。
考慮⼀個集合,包含
N
N
N 個徹底相同的物體,這些 物體要被分到若⼲個箱⼦中,使得第
i
i
i 個箱⼦中有
n
i
n_i
n i 個物體。考慮把物體分配到箱子中的不一樣方案的數量。有
N
N
N 種方式選擇第一個物體,
N
−
1
N-1
N − 1 種方式選擇第二個物體,總共有
N
!
N!
N ! 種方式把
N
N
N 個物體分配到箱子中。在第
i
i
i 個箱⼦中,有
n
i
n_i
n i 種方式對物體從新排序。不區分每一個箱子內部物體的從新排列。總方案數量爲
W
=
N
!
∏
i
n
i
!
W=\frac{N!}{\prod_in_i!}
W = ∏ i n i ! N ! 稱爲乘數(multiplicity)。
熵被定義爲經過適當的參數放縮後的對數乘數,即
H
=
1
N
ln
W
=
1
N
ln
N
!
−
1
N
∑
i
ln
n
i
!
H=\frac{1}{N}\ln W=\frac{1}{N}\ln N!-\frac{1}{N}\sum_i\ln n_i!
H = N 1 ln W = N 1 ln N ! − N 1 i ∑ ln n i ! 考慮極限
N
→
∞
N\to \infty
N → ∞ ,保持比值
n
i
N
\frac{n_i}{N}
N n i 固定,使用Stirling的估計
ln
N
!
≃
N
ln
N
−
N
\ln N!\simeq N\ln N-N
ln N ! ≃ N ln N − N
p
i
=
lim
N
→
∞
(
n
i
N
)
p_i=\lim_{N\to \infty}(\frac{n_i}{N})
p i = N → ∞ lim ( N n i )
獲得
H
=
1
N
ln
N
!
−
1
N
∑
i
ln
n
i
!
=
1
N
(
N
ln
N
−
N
)
−
1
N
∑
i
(
n
i
ln
n
i
−
n
i
)
H=\frac{1}{N}\ln N!-\frac{1}{N}\sum_i\ln n_i!=\frac{1}{N}(N\ln N-N)-\frac{1}{N}\sum_i(n_i\ln n_i-n_i)
H = N 1 ln N ! − N 1 i ∑ ln n i ! = N 1 ( N ln N − N ) − N 1 i ∑ ( n i ln n i − n i )
=
ln
N
−
1
−
∑
i
n
i
N
ln
n
i
+
1
N
∑
i
n
i
=
ln
N
−
∑
i
n
i
N
ln
n
i
=\ln N-1-\sum_i\frac{n_i}{N}\ln n_i+\frac{1}{N}\sum_in_i=\ln N-\sum_i\frac{n_i}{N}\ln n_i
= ln N − 1 − i ∑ N n i ln n i + N 1 i ∑ n i = ln N − i ∑ N n i ln n i
=
∑
i
n
i
N
ln
N
−
∑
i
n
i
N
ln
n
i
=
−
lim
N
→
∞
∑
i
n
i
N
ln
n
i
N
=
−
∑
i
p
i
ln
p
i
=\sum_i\frac{n_i}{N}\ln N-\sum_i\frac{n_i}{N}\ln n_i=-\lim_{N\to \infty}\sum_i\frac{n_i}{N}\ln \frac{n_i}{N}=-\sum_ip_i\ln p_i
= i ∑ N n i ln N − i ∑ N n i ln n i = − N → ∞ lim i ∑ N n i ln N n i = − i ∑ p i ln p i
微觀狀態(microstate):箱子中物體的具體分配方案
宏觀狀態(macrostate):總體的佔領數的分佈,表示爲比值
n
i
N
\frac{n_i}{N}
N n i 。乘數
W
W
W 稱爲宏觀狀態的權重
把箱子表述成離散隨機變量
X
X
X 的狀態
x
i
x_i
x i ,其中
p
(
X
=
x
i
)
=
p
i
p(X=x_i)=p_i
p ( X = x i ) = p i 。
H
[
p
]
=
−
∑
i
p
(
x
i
)
ln
p
(
x
i
)
H[p]=-\sum_ip(x_i)\ln p(x_i)
H [ p ] = − i ∑ p ( x i ) ln p ( x i )
熵的最大值:
使用拉格朗日乘數法最大化
H
~
=
−
∑
i
p
(
x
i
)
ln
p
(
x
i
)
+
λ
(
∑
i
p
(
x
i
)
−
1
)
\tilde H=-\sum_ip(x_i)\ln p(x_i)+\lambda(\sum_ip(x_i)-1)
H ~ = − i ∑ p ( x i ) ln p ( x i ) + λ ( i ∑ p ( x i ) − 1 ) 當全部的
p
(
x
i
)
p(x_i)
p ( x i ) 都相等,且
p
(
x
i
)
=
1
M
p(x_i)=\frac{1}{M}
p ( x i ) = M 1 時,熵取得最大值。其中
M
M
M 是狀態
x
i
x_i
x i 的總數,此時
H
=
ln
M
H=\ln M
H = ln M
熵的二階導數爲
∂
2
H
~
∂
p
(
x
i
)
∂
p
(
x
i
)
=
−
I
i
j
1
p
i
\frac{\partial ^2\tilde H}{\partial p(x_i)\partial p(x_i)}=-I_{ij}\frac{1}{p_i}
∂ p ( x i ) ∂ p ( x i ) ∂ 2 H ~ = − I i j p i 1 其中
I
i
j
I_{ij}
I i j 是單位矩陣的元素
連續變量的機率分佈
p
(
x
)
p(x)
p ( x )
把
x