Pattern Recognition and Machine Learning: Chapter 01習題詳解

PRML_Exercises

Pattern Recognition and Machine Learning習題中文詳解

歡迎討論題目(我把自己做的過程貼出來也是爲了更方便討論),禁止一切形式的轉載。

關於排版,實話說我也想把公式排得舒服好看一些,奈何着實費力,這着實不太討喜,見諒。

Chapter 1

1.1

能夠使得式(1.2)給出的誤差函數最小的參數 w = { w i } \mathbf{w}=\{w_i\} 就是使得誤差爲 0 0 的參數,那麼就滿足
j = 0 M w j x n j = t n \sum_{j=0}^{M}w_jx_n^j=t_n
而我們要做的這道證明題的右式
T i = n = 1 N ( x n ) i t n T_i=\sum_{n=1}^{N}(x_n)^it_n
直接將上述我們已知的 t n t_n 代入,得
T i = n = 1 N [ ( x n ) i j = 0 M w j ( x n ) j ] T_i=\sum_{n=1}^N[(x_n)^i\sum_{j=0}^{M}w_j(x_n)^j]
又由於 ( x n ) i (x_n)^i 不含有與 j j 相關的係數,所以可以將其放入後面的求和項,即
T i = n = 1 N j = 0 M ( x n ) i w j ( x n ) j T_i=\sum_{n=1}^N\sum_{j=0}^{M}(x_n)^iw_j(x_n)^j
再互換一下求和順序
T i = j = 0 M n = 1 N ( x n ) i w j x n j = j = 0 M n = 1 N ( x n ) i + j w j T_i=\sum_{j=0}^{M}\sum_{n=1}^N(x_n)^iw_jx_n^j=\sum_{j=0}^{M}\sum_{n=1}^N(x_n)^{i+j}w_j
其中就可以看到 n = 1 N ( x n ) i + j \sum_{n=1}^N(x_n)^{i+j} 就是題目中的 A i j A_{ij} 了,從而得證。

1.2

已知
E ~ ( w ) = 1 2 n = 1 N { y ( x n , w ) t n } 2 + λ 2 w 2 \widetilde{E}(\mathbf{w})=\frac{1}{2} \sum_{n=1}^{N}\left\{y\left(x_{n}, \mathbf{w}\right)-t_{n}\right\}^{2}+\frac{\lambda}{2}\|\mathbf{w}\|^{2}
其中 w 2 w T w = w 0 2 + w 1 2 + + w M 2 \|\mathbf{w}\|^{2} \equiv \mathbf{w}^{\mathrm{T}} \mathbf{w}=w_{0}^{2}+w_{1}^{2}+\ldots+w_{M}^{2} ,這裏提一下正則項裏面的 w 0 2 w_0^2 ,作者說通常來講這一項要麼不放正則項中,要麼使用另一個 λ \lambda 對其進行大小控制,不過咱們這裏爲了公式的推導方便就不做特殊處理,且讓它在這個正則項中。既然題目中要求這個誤差函數 E ~ ( w ) \widetilde{E}(\mathbf{w}) 最小化,也就意味着該式對各個參數 w w 的導數均爲 0 0 ,由此可得:
d E ~ ( w ) d w i = 1 2 n = 1 N { 2 [ j = 0 M w j ( x n ) j t n ] ( x n ) i } + λ w i = 0 \frac{\mathrm{d}\widetilde{E}(\mathbf{w})}{\mathrm{d}w_i}=\frac{1}{2}\sum_{n=1}^{N}\{2[\sum_{j=0}^{M}w_j(x_n)^j-t_n](x_n)^i\}+\lambda w_i=0
所以
n = 1 N { j = 0 M [ ( x n ) i + j w j ] ( x n ) i t n ] } + λ w i = n = 1 N j = 0 M { ( x n ) i + j w j } n = 1 N { ( x n ) i t n + λ w i N } = 0 \sum_{n=1}^{N}\{\sum_{j=0}^{M}[(x_n)^{i+j}w_j]-(x_n)^it_n]\}+\lambda w_i=\sum_{n=1}^{N}\sum_{j=0}^{M}\{(x_n)^{i+j}w_j\}-\sum_{n=1}^{N}\{(x_n)^{i}t_n+\frac{\lambda w_i}{N}\}=0
所以可以看到,題目1.1中的式子基本都可以保持不變,只需將 T i T_i 修改爲 T i = n = 1 N { ( x n ) i t n + λ w i N } T_i=\sum_{n=1}^{N}\{(x_n)^{i}t_n+\frac{\lambda w_i}{N}\}

Tips:上面求導的過程使用了複合函數的求導。

1.3

已知 p ( B = r ) = 0.2 p(B=r)=0.2 p ( B = b ) = 0.2 p(B=b)=0.2 p ( B = g ) = 0.6 p(B=g)=0.6 ,同時, p ( F = a B = r ) = 0.3 p(F=a|B=r)=0.3 p ( F = o B = r ) = 0.4 p(F=o|B=r)=0.4 p ( F = l B = r ) = 0.3 p(F=l|B=r)=0.3 p ( F = a B = b ) = 0.5 p(F=a|B=b)=0.5 p ( F = o B = b ) = 0.5 p(F=o|B=b)=0.5 p ( F = l B = b ) = 0 p(F=l|B=b)=0 p ( F = a B = g ) = 0.3 p(F=a|B=g)=0.3 p ( F = o B = g ) = 0.3 p(F=o|B=g)=0.3 p ( F = l B = g ) = 0.4 p(F=l|B=g)=0.4 。第一小問說,抽一次抽出蘋果的概率是多少,可通過sum rule和product rule求出,即:
p ( a ) = p ( a , r ) + p ( a , b ) + p ( a , g ) = p ( a r ) p ( r ) + p ( a b ) p ( b ) + p ( a g ) p ( g ) = 0.34 p(a)=p(a,r)+p(a,b)+p(a,g)=p(a|r)p(r)+p(a|b)p(b)+p(a|g)p(g)=0.34
第二小問說,在已知抽出的結果是橘子(orange)的情況下,從綠色(green)盒子中抽出這個橘子的概率是多大。這就是一個很典型的由果推因的貝葉斯公式題,相當於求 p ( B = g F = o ) p(B=g|F=o) ,根據貝葉斯公式,可得 p ( g o ) = p ( o g ) p ( g ) p ( o ) p(g|o)=\frac{p(o|g)p(g)}{p(o)} ,其中分母可以按照第一小問的方式求出,分子中各項均爲已知條件,求得 p ( B = g F = o ) = 0.5 p(B=g|F=o)=0.5

1.4

已知 x = g ( y ) x=g(y) p y ( y ) = p x ( x ) d x d y = p x ( x ) g ( y ) p_y(y)=p_x(x)|\frac{\mathrm{d}x}{\mathrm{d}y}|=p_x(x)|g^{\prime}(y)| ,對於兩個概率分佈而言,能夠取到最大值的位置滿足導數爲 0 0 ,因此 p y ( y ) y = p x ( x ) g ( y ) y = 0 \frac{\partial p_y(y)}{\partial y}=\frac{\partial p_x(x)|g^{\prime}(y)|}{\partial y}=0 ,題目中假設 x = g ( y ) x=g(y) 爲線性函數,因此我們假設 x = g ( y ) = a y + b x=g(y)=ay+b ,所以可以得到 p y ( y ) y = p x ( x ) a x x y = p x ( x ) x a 2 = 0 \frac{\partial p_y(y)}{\partial y}=\frac{\partial p_x(x)|a|}{\partial x}\frac{\partial x}{\partial y}=\frac{\partial p_x(x)}{\partial x}|a|^2=0 ,由於 a 2 > 0 |a|^2 > 0 ,( a a 的絕對值不應該爲 0 0 ,否則並不能稱其爲變換了),所以使得 p x ( x ) x = 0 \frac{\partial p_x(x)}{\partial x}=0 的情況下, p y ( y ) y \frac{\partial p_y(y)}{\partial y} 也等於 0 0 ,也就是說在 x x 取值使得 p x ( x ) p_x(x) 最大的位置,這個 x x 對應的 y y 也是使得 p y ( y ) p_y(y) 最大的位置,而 x = g ( y ) = a y + b x=g(y)=ay+b 同樣滿足兩變量之間的線性關係。

1.5

式(1.38)爲 var [ f ] = E [ ( f ( x ) E [ f ( x ) ] ) 2 ] \operatorname{var}[f]=\mathbb{E}\left[(f(x)-\mathbb{E}[f(x)])^{2}\right] ,因此 var [ f ] = E [ ( f ( x ) E [ f ( x ) ] ) 2 ] = E [ f ( x ) 2 2 f ( x ) E [ f ( x ) ] + ( E [ f ( x ) ] ) 2 ] \operatorname{var}[f]=\mathbb{E}\left[(f(x)-\mathbb{E}[f(x)])^{2}\right]=\mathbb{E}[f(x)^2-2f(x)\mathbb{E}[f(x)]+(\mathbb{E}[f(x)])^2] ,所以 var [ f ] = E [ f ( x ) 2 ] 2 ( E [ f ( x ) ] ) 2 + ( E [ f ( x ) ] ) 2 ] = E [ f ( x ) 2 ] E [ f ( x ) ] 2 \operatorname{var}[f]=\mathbb{E}[f(x)^2]-2(\mathbb{E}[f(x)])^2+(\mathbb{E}[f(x)])^2]=\mathbb{E}\left[f(x)^{2}\right]-\mathbb{E}[f(x)]^{2}

1.6

根據式(1.41)可知, cov [ x , y ] = E x , y [ x y ] E [ x ] E [ y ] \begin{aligned} \operatorname{cov}[x, y] &=\mathbb{E}_{x, y}[x y]-\mathbb{E}[x] \mathbb{E}[y] \end{aligned} 。設變量 x x y y 獨立同分布,對應的分佈分別爲 p ( x ) p(x) p ( y ) p(y) ,則 E x , y [ x y ] = x y p ( x y ) d x d y = x y p ( x ) p ( y ) d x d y = y q ( y ) x p ( x ) d x d y \mathbb{E}_{x, y}[x y]=\iint xyp(xy)\mathrm{d}x\mathrm{d}y=\iint xyp(x)p(y)\mathrm{d}x\mathrm{d}y= \int yq(y)\int xp(x)\mathrm{d}x\mathrm{d}y ,由於第二個積分與第一個積分項無關(相互獨立,兩者之間沒有函數關係),因此可以拎出來,得 E x , y [ x y ] = x p ( x ) d x y q ( y ) d y = E [ x ] E [ y ] \mathbb{E}_{x, y}[x y]=\int xp(x)\mathrm{d}x\int yq(y)\mathrm{d}y=\mathbb{E}[x]\mathbb{E}[y] ,所以在兩變量互相獨立的情況下, cov [ x , y ] = E x , y [ x y ] E [ x ] E [ y ] = 0 \begin{aligned} \operatorname{cov}[x, y] &=\mathbb{E}_{x, y}[x y]-\mathbb{E}[x] \mathbb{E}[y] \end{aligned}=0

1.7

x = r cos θ x=r \cos \theta y = r sin θ y=r\sin \theta ,滿足 x 2 + y 2 = r 2 x^2+y^2=r^2 r 0 r\ge 0 ,則原來的積分式可以寫成 I 2 = exp ( 1 2 σ 2 x 2 1 2 σ 2 y 2 ) d x d y = o 2 π 0 exp ( 1 2 σ 2 r 2 ) r d r d θ I^{2}=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} \exp \left(-\frac{1}{2 \sigma^{2}} x^{2}-\frac{1}{2 \sigma^{2}} y^{2}\right) \mathrm{d} x \mathrm{d} y=\int_o^{2 \pi}\int_0^{\infty}\exp(-\frac{1}{2\sigma^2}r^2)r\mathrm{d}r\mathrm{d}\theta ,使用 u = r 2 u=r^2 代換,

所以 I 2 = 1 2 o 2 π 0 exp ( 1 2 σ 2 u ) d u d θ = 1 2 0 2 π ( 2 σ 2 ) exp ( 1 2 σ 2 u ) 0 d θ = 2 π σ 2 I^{2}=\frac{1}{2}\int_o^{2 \pi}\int_0^{\infty}\exp(-\frac{1}{2\sigma^2}u)\mathrm{d}u\mathrm{d}\theta=\frac{1}{2}\int_{0}^{2\pi}(-2\sigma^2)\exp(-\frac{1}{2\sigma^2}u)|_0^{\infty}\mathrm{d}\theta=2\pi\sigma^2 ,所以 I = ( 2 π σ 2 ) 1 / 2 I=\left(2 \pi \sigma^{2}\right)^{1 / 2}

1.8

式(1.46)爲 N ( x μ , σ 2 ) = 1 ( 2 π σ 2 ) 1 / 2 exp { 1 2 σ 2 ( x μ ) 2 } = p ( x μ ) \mathcal{N}\left(x | \mu, \sigma^{2}\right)=\frac{1}{\left(2 \pi \sigma^{2}\right)^{1 / 2}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\}=p(x-\mu) ,即要證明 + x 1 ( 2 π σ 2 ) 1 / 2 exp { 1 2 σ 2 ( x μ ) 2 } d x = x p ( x μ ) d x = μ \int_{-\infty}^{+\infty}x\frac{1}{\left(2 \pi \sigma^{2}\right)^{1 / 2}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\}\mathrm{d}x=\int_{-\infty}^{\infty}xp(x-\mu)\mathrm{d}x=\mu 。先拋開該式不談,我們需要換元,且必須手頭拿到一個已知的東西,那麼我們首先有 + ( x μ ) 1 ( 2 π σ 2 ) 1 / 2 exp { 1 2 σ 2 ( x μ ) 2 } d ( x μ ) = 0 \int_{-\infty}^{+\infty}(x-\mu)\frac{1}{\left(2 \pi \sigma^{2}\right)^{1 / 2}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\}\mathrm{d}(x-\mu)=0 ,這個比較簡單,根據奇函數積分爲 0 0 可得,然後我們把這個式子在 ( x μ ) (x-\mu) 這裏展開,可以看到即 x p ( x μ ) d ( x μ ) μ p ( x μ ) d ( x μ ) = x p ( x μ ) d x μ = 0 \int_{-\infty}^{\infty}xp(x-\mu)\mathrm{d}(x-\mu)-\mu\int_{-\infty}^{\infty}p(x-\mu)\mathrm{d}(x-\mu)=\int_{-\infty}^{\infty}xp(x-\mu)\mathrm{d}x-\mu=0 ,所以 x p ( x μ ) d x = μ \int_{-\infty}^{\infty}xp(x-\mu)\mathrm{d}x=\mu ,亦即 E [ x ] = N ( x μ , σ 2 ) x d x = μ \mathbb{E}[x]=\int_{-\infty}^{\infty} \mathcal{N}\left(x | \mu, \sigma^{2}\right) x \mathrm{d} x=\mu

第二小問要求驗證式(1.50)的正確性。在題目1.7中我們得到 exp ( 1 2 σ 2 ( x μ ) 2 ) d x = ( 2 π σ 2 ) 1 / 2 \int_{-\infty}^{\infty} \exp \left(-\frac{1}{2 \sigma^{2}} (x-\mu)^{2}\right) \mathrm{d} x = \left(2 \pi \sigma^{2}\right)^{1 / 2} ,在等式兩邊對 σ 2 \sigma^2 求導可得 exp { ( x μ ) 2 2 σ 2 } 2 ( x μ ) 2 ( 2 σ 2 ) 2 d x = π ( 2 π σ ) 1 / 2 \int_{-\infty}^{\infty}\exp\{-\frac{(x-\mu)^2}{2\sigma^2}\}\frac{2(x-\mu)^2}{(2\sigma^2)^2}\mathrm{d}x=\frac{\pi}{(2\pi \sigma)^{1/2}} ,將式子整理後爲: 1 ( 2 π σ 2 ) 1 / 2 exp { ( x μ ) 2 2 σ 2 } ( x μ ) 2 d x = σ 2 = E [ ( x μ ) 2 ] \int_{-\infty}^{\infty}\frac{1}{(2\pi\sigma^2)^{1/2}}\exp\{-\frac{(x-\mu)^2}{2\sigma^2}\}(x-\mu)^2\mathrm{d}x= \sigma^{2}=\mathbb{E}[(x-\mu)^2] ,又因爲 E [ ( x μ ) 2 ] = E [ x 2 2 μ x + μ 2 ] = E [ x 2 ] 2 μ E [ x ] + μ 2 \mathbb{E}[(x-\mu)^2]=\mathbb{E}[x^2-2\mu x+\mu^2]=\mathbb{E}[x^2]-2\mu\mathbb{E}[x]+\mu^2 ,而我們在上一小問已經知道 E [ x ] = μ \mathbb{E}[x]=\mu ,所以全部帶進去可得, σ 2 = E [ x 2 ] μ 2 \sigma^2=\mathbb{E}[x^2]-\mu^2 ,所以 E [ x 2 ] = σ 2 + μ 2 \mathbb{E}[x^2]=\sigma^2+\mu^2 ,從而證得式(1.50)。這樣一來,式(1.51)也就順理成章地成立了。

1.9

單元高斯分佈的極大值可以通過對其概率分佈函數求導得到極值對應的座標 x = μ x=\mu ,不做贅述。

多元高斯分佈函數爲 N ( x μ , Σ ) = 1 ( 2 π ) D / 2 1 Σ 1 / 2 exp { 1 2 ( x μ ) T Σ 1 ( x μ ) } \mathcal{N}(\mathbf{x} | \boldsymbol{\mu}, \mathbf{\Sigma})=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\mathbf{\Sigma}|^{1 / 2}} \exp \left\{-\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \mathbf{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})\right\} ,同樣進行求導,這裏要用到矩陣的求導法則,得 N ( x μ , Σ ) x = 1 2 N ( x μ , Σ ) x { ( x μ ) T Σ 1 ( x μ ) } = 1 2 N ( x μ , Σ ) x μ { ( x μ ) T Σ 1 ( x μ ) } \frac{\partial\mathcal{N}(\mathbf{x} | \boldsymbol{\mu}, \mathbf{\Sigma})}{\partial \mathbf{x}}=-\frac{1}{2}\mathcal{N}(\mathbf{x} | \boldsymbol{\mu}, \mathbf{\Sigma})\nabla_{\mathbf{x}}\left\{(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})\right\}=-\frac{1}{2}\mathcal{N}(\mathbf{x} | \boldsymbol{\mu}, \mathbf{\Sigma})\nabla_{\mathbf{x}-\boldsymbol{\mu}}\left\{(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})\right\} ,利用PRML(C.19)和(C.20)公式,令 A = ( x μ ) T Σ 1 \mathbf{A}=(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1} B = x μ \mathbf{B}=\mathbf{x}-\boldsymbol{\mu} ,則很容易得到 N ( x μ , Σ ) x = N ( x μ , Σ ) Σ 1 ( x μ ) \frac{\partial\mathcal{N}(\mathbf{x} | \boldsymbol{\mu}, \mathbf{\Sigma})}{\partial \mathbf{x}}=-\mathcal{N}(\mathbf{x} | \boldsymbol{\mu}, \mathbf{\Sigma}) \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu}) ,在推導過程中需要注意的是 Σ 1 ( x μ ) = ( x μ ) T Σ 1 {\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})=(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}}{\Sigma}^{-1} ,這是由於 x μ \mathbf{x}-\boldsymbol{\mu} 是向量所導致的。那麼根據求得的導數,同樣在 x = μ \mathbf{x}=\boldsymbol{\mu} 時取得極值。

1.10

E [ x + z ] = ( x + z ) p ( x , z ) d x d z = ( x + z ) p ( x ) p ( z ) d x d z = x p ( x ) p ( z ) d x d z + z p ( z ) p ( x ) d x d z \mathbb{E}[x+z]=\iint (x+z)p(x,z)\mathrm{d}x\mathrm{d}z=\iint (x+z)p(x)p(z)\mathrm{d}x\mathrm{d}z=\iint xp(x)p(z)\mathrm{d}x\mathrm{d}z+\iint zp(z)p(x)\mathrm{d}x\mathrm{d}z

對於右側的式子,由於 x x z z 相互獨立, p ( z ) p(z) 的積分爲1,因此第一項即爲 x p ( x ) d x = E [ x ] \int xp(x)\mathrm{d}x=\mathbb{E}[x] ,同理第二項爲 E [ z ] \mathbb{E}[z] ,所以 E [ x + z ] = E [ x ] + E [ z ] \mathbb{E}[x+z]=\mathbb{E}[x]+\mathbb{E}[z]

var [ x + z ] = E [ ( x + z ) 2 ] ( E [ x + z ] ) 2 \operatorname{var}[x+z]=\mathbb{E}[(x+z)^2]-(\mathbb{E}[x+z])^2 ,代入第一小問的結果,得到所求方差爲 E [ x 2 + z 2 + 2 x z ] ( E [ x ] + E [ x ] ) 2 = E [ x 2 ] + E [ z 2 ] + 2 E [ x z ] ( E [ x ] ) 2 ( E [ z ] ) 2 2 E [ x ] E [ z ] \mathbb{E}[x^2+z^2+2xz]-(\mathbb{E}[x]+\mathbb{E}[x])^2=\mathbb{E}[x^2]+\mathbb{E}[z^2]+2\mathbb{E}[xz]-(\mathbb{E}[x])^2-(\mathbb{E}[z])^2-2\mathbb{E}[x]\mathbb{E}[z]

又根據題目1.6的結論,化簡得到 var [ x + z ] = E [ x 2 ] + E [ z 2 ] ( E [ x ] ) 2 ( E [ z ] ) 2 = var [ x ] + var [ z ] \operatorname{var}[x+z]=\mathbb{E}[x^2]+\mathbb{E}[z^2]-(\mathbb{E}[x])^2-(\mathbb{E}[z])^2=\operatorname{var}[x]+\operatorname{var}[z]

1.11

y = ln p ( x μ , σ 2 ) = 1 2 σ 2 n = 1 N ( x n μ ) 2 N 2 ln σ 2 N 2 ln ( 2 π ) y=\ln p\left(\mathbf{x} | \mu, \sigma^{2}\right)=-\frac{1}{2 \sigma^{2}} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}-\frac{N}{2} \ln \sigma^{2}-\frac{N}{2} \ln (2 \pi) ,可以得到 y μ = 1 σ 2 n = 1 N ( μ x n ) = 0 \frac{\partial y}{\partial \mu}=-\frac{1}{\sigma^2}\sum_{n=1}^{N}(\mu-x_n)=0 ,所以 n = 1 N ( μ x n ) = 0 \sum_{n=1}^{N}(\mu-x_n)=0 ,所以 n = 1 N μ n = 1 N x n = N μ n = 1 N x n = 0 \sum_{n=1}^{N}\mu-\sum_{n=1}^{N}x_n=N\mu-\sum_{n=1}^{N}x_n=0 ,所以 μ M L = 1 N n = 1 N x n \mu_{\mathrm{ML}}=\frac{1}{N} \sum_{n=1}^{N} x_{n}

y σ 2 = 2 ( 2 σ 2 ) 2 n = 1 N ( x n μ M L ) 2 N 2 σ 2 = 0 \frac{\partial y}{\partial \sigma^2}=-\frac{2}{(2\sigma^2)^2}\sum_{n=1}^{N}(x_n-\mu_{\mathrm{ML}})^2-\frac{N}{2\sigma^2}=0 ,很容易得到 σ M L 2 = 1 N n = 1 N ( x n μ M L ) 2 \sigma_{\mathrm{ML}}^{2}=\frac{1}{N} \sum_{n=1}^{N}\left(x_{n}-\mu_{\mathrm{ML}}\right)^{2}

1.12

這題其實第一小問挺迷的,主要問題在於爲什麼作者要使用不同的下標來表示是否獨立,或者說,如果作者你想表達這個意思,那你就應該明說啊我透。這樣子一來就比較簡單明瞭了,若 n = m n=m ,則 E [ x n 2 ] \mathbb{E}[x_n^2] 根據式(1.50)很容易得到 E [ x n 2 ] = μ 2 + σ 2 \mathbb{E}[x_n^2]=\mu^2+\sigma^2 ,下標爲 m m 時相同。若 n m n\ne m ,那麼按照作者的意思,就是說這倆變量相互獨立,所以 E [ x n x m ] = E [ x n ] E [ x m ] = μ 2 \mathbb{E}[x_nx_m]=\mathbb{E}[x_n]\mathbb{E}[x_m]=\mu^2

其實作者是想用第一小問作爲引子來幫助我們證明式(1.57)和式(1.58),那麼實際上我是覺得沒必要這麼麻煩,我們直接證明這兩個式子即可,無需繞他給的這條彎路。

對於第一個式子,求取最大似然分佈的均值的期望,我們這裏假設總共取了 K K 次數據,每一次都取 N N 個數據來進行極大似然估計, x k n x_{kn} 表示第 k k 次取的第 n n 個數據,那麼 E [ μ M L ] = 1 K k = 1 K [ 1 N n = 1 N x k n ] = 1 K N k = 1 K n = 1 N x k n \mathbb{E}[\mu_{\mathrm{ML}}]=\frac{1}{K}\sum_{k=1}^K[\frac{1}{N}\sum_{n=1}^Nx_{kn}]=\frac{1}{KN}\sum_{k=1}^{K}\sum_{n=1}^Nx_{kn} ,到這裏,我們先停一下,假設我們每次取的數據有限,也就是 N N 有限,但是我們一直取一直取,也就是說 K K 無限,那麼這裏就可以看做我對整個分佈上所有的 x x 都取到了,從而推得 x k n x_{kn} 的均值就是正態分佈 N ( x μ , σ 2 ) \mathcal{N}\left(x | \mu, \sigma^{2}\right) 的均值 μ \mu ,所以 E [ μ M L ] = μ \mathbb{E}[\mu_{\mathrm{ML}}]=\mu ,這就證明了式(1.57)。

對於式(1.58),首先依舊採取我們之前的取數據規定,同時將方差的計算公式展開, μ k M L \mu_{k\mathrm{ML}} 爲第 k k 次取得的數據的均值,則 E [ σ M L 2 ] = 1 K k = 1 K [ 1 N n = 1 N ( x k n μ k M L ) 2 ] = 1 K k = 1 K [ 1 N n = 1 N ( x k n 2 2 x k n μ k M L + μ k M L 2 ) ] \mathbb{E}[\sigma_{\mathrm{ML}}^2]=\frac{1}{K}\sum_{k=1}^K[\frac{1}{N}\sum_{n=1}^N(x_{kn}-\mu_{k\mathrm{ML}})^2]=\frac{1}{K}\sum_{k=1}^K[\frac{1}{N}\sum_{n=1}^N(x_{kn}^2-2x_{kn}\mu_{k\mathrm{ML}}+ \mu_{k\mathrm{ML}}^2)] ,這就可以拆分爲三項,其中第一項與 x k n 2 x_{kn}^2 相關,沿用上面的思路,相當於取遍了所有的 x k n x_{kn} ,所以 1 K k = 1 K [ 1 N n = 1 N x k n 2 ] = E [ x 2 ] = μ 2 + σ 2 \frac{1}{K}\sum_{k=1}^K[\frac{1}{N}\sum_{n=1}^Nx_{kn}^2]=\mathbb{E}[x^2]=\mu^2+\sigma^2 ,後面兩項可以寫成 1 K k = 1 K [ 2 μ k M L 1 N n = 1 N x k n ] + 1 K k = 1 K [ 1 N n = 1 N ( μ k M L 2 ) ] \frac{1}{K}\sum_{k=1}^K[-2\mu_{k\mathrm{ML}}\frac{1}{N}\sum_{n=1}^Nx_{kn}]+\frac{1}{K}\sum_{k=1}^K[\frac{1}{N}\sum_{n=1}^N( \mu_{k\mathrm{ML}}^2)] ,也就是 1 K k = 1 K [ 2 μ k M L 2 ] + 1 K k = 1 K [ μ k M L 2 ] = 1 K k = 1 K [ μ k M L 2 ] \frac{1}{K}\sum_{k=1}^K[-2\mu_{k\mathrm{ML}}^2]+\frac{1}{K}\sum_{k=1}^K[\mu_{k\mathrm{ML}}^2]=-\frac{1}{K}\sum_{k=1}^K[\mu_{k\mathrm{ML}}^2] ,這就比較明白了,後面兩項就是 E [ μ M L 2 ] -\mathbb{E}[\mu_{\mathrm{ML}}^2] ,因此 E [ σ M L 2 ] = μ 2 + σ 2 E [ μ M L 2 ] \mathbb{E}[\sigma_{\mathrm{ML}}^2]=\mu^2+\sigma^2-\mathbb{E}[\mu_{\mathrm{ML}}^2] ,所以我們就要求這個 E [ μ M L 2 ] \mathbb{E}[\mu_{\mathrm{ML}}^2] ,這個表達式的含義就是每一次取得的數據的均值的平方的平均值(期望),那麼就有 E [ μ M L 2 ] = σ μ M L 2 + ( E [ μ M L ] ) 2 \mathbb{E}[\mu_{\mathrm{ML}}^2]=\sigma_{\mu_{\mathrm{ML}}}^2+(\mathbb{E}[\mu_{\mathrm{ML}}])^2 ,根據公式(1.57),我們進一步得到 E [ μ M L 2 ] = σ μ M L 2 + μ 2 \mathbb{E}[\mu_{\mathrm{ML}}^2]=\sigma_{\mu_{\mathrm{ML}}}^2+\mu^2 ,所以 E [ σ M L 2 ] = μ 2 + σ 2 E [ μ M L 2 ] = σ 2 σ μ M L 2 \mathbb{E}[\sigma_{\mathrm{ML}}^2]=\mu^2+\sigma^2-\mathbb{E}[\mu_{\mathrm{ML}}^2]=\sigma^2-\sigma_{\mu_{\mathrm{ML}}}^2 ,所以任務又進一步變爲求這個 σ μ M L 2 = var [ μ M L ] \sigma_{\mu_{\mathrm{ML}}}^2=\operatorname{var}[\mu_{\mathrm{ML}}] ,而 var [ μ M L ] = var [ 1 N n = 1 N x n ] = 1 N 2 n = 1 N var [ x n ] = 1 N 2 n = 1 N σ 2 = σ 2 N \operatorname{var}[\mu_{\mathrm{ML}}]=\operatorname{var}[\frac{1}{N}\sum_{n=1}^N x_n]=\frac{1}{N^2}\sum_{n=1}^N \operatorname{var}[x_n]=\frac{1}{N^2}\sum_{n=1}^N \sigma^2=\frac{\sigma^2}{N}

所以就有 E [ σ M L 2 ] = μ 2 + σ 2 E [ μ M L 2 ] = σ 2 σ 2 N = N 1 N σ 2 \mathbb{E}[\sigma_{\mathrm{ML}}^2]=\mu^2+\sigma^2-\mathbb{E}[\mu_{\mathrm{ML}}^2]=\sigma^2-\frac{\sigma^2}{N}=\frac{N-1}{N}\sigma^2

PS:我用MATLAB做了一下實驗,與理論完全相符,式(1.57)和式(1.58)實際上也可以從直觀上進行理解,這裏就不詳細說了。

1.13

根據題目(1.12)的推導,這題就很簡單了,將 E [ μ M L 2 ] \mathbb{E}[\mu_{\mathrm{ML}}^2] 代換爲 E [ μ 2 ] = μ 2 \mathbb{E}[\mu^2]=\mu^2 即可,那很顯然 E [ σ M L 2 ] = μ 2 + σ 2 μ 2 = σ 2 \mathbb{E}[\sigma_{\mathrm{ML}}^2]=\mu^2+\sigma^2-\mu^2=\sigma^2 。此時,方差的期望也就是無偏的了。

1.14

如果可以寫成題目要求的形式(設原矩陣爲 W \mathrm{W} ,要寫成 W = S + A \mathrm{W}=\mathrm{S}+\mathrm{A} ),那首先可以很容易推斷出 A \mathrm{A} 的對角線上的元素都是 0 0 ,所以 S \mathrm{S} 對角線上的元素就是 W \mathrm{W} 對角線上的元素。接着就是要證明 S \mathrm{S} A \mathrm{A} 的其餘元素也是可解出來的,因爲 w i j = w i j S + w i j A w_{ij}=w_{ij}^{\mathrm{S}}+w_{ij}^{\mathrm{A}} ,同時 w j i = w j i S + w j i A = w i j S w i j A w_{ji}=w_{ji}^{\mathrm{S}}+w_{ji}^{\mathrm{A}}=w_{ij}^{\mathrm{S}}-w_{ij}^{\mathrm{A}} ,這就可以得到構成一個二元一次方程組,由於參數對應的矩陣的秩爲 2 2 ,因此方程組必然有解,所以可以寫成題目要求的形式。

i = 1 D j = 1 D x i w i j x j = x T W x = x T ( S + A ) x = x T S x + x T A x \sum_{i=1}^{D}\sum_{j=1}^{D}x_i w_{ij}x_j=\mathrm{x^T W x}=\mathrm{x^T (S+A) x}=\mathrm{x^T S x +x^T A x} ,現在重點關注一下 x T A x \mathrm{x^T A x} 這一項,因爲 x T A x = i = 1 D j = 1 D x i w i j A x j \mathrm{x^T A x}=\sum_{i=1}^{D}\sum_{j=1}^{D}x_i w_{ij}^{\mathrm{A}}x_j ,那麼 A \mathrm{A} 的對角線元素皆爲 0 0 ,同時對稱元素互爲相反數,(注意, A \mathrm{A} 和另外兩個矩陣都是方陣,這是前提條件),相當於 x i w i j A x j + x j w j i A x i = 0 x_i w_{ij}^{\mathrm{A}}x_j+x_j w_{ji}^{\mathrm{A}}x_i=0 ,所以 x T A x = 0 \mathrm{x^T A x}=0 ,所以 i = 1 D j = 1 D x i w i j x j = x T W x = x T S x + x T A x = x T S x = i = 1 D j = 1 D x i w i j S x j \sum_{i=1}^{D}\sum_{j=1}^{D}x_i w_{ij}x_j=\mathrm{x^T W x}=\mathrm{x^T S x +x^T A x}=\mathrm{x^T S x}=\sum_{i=1}^{D}\sum_{j=1}^{D}x_i w_{ij}^{\mathrm{S}}x_j

最後一小問就相當於問我們矩陣 S \mathrm{S} 的對角線以及上(或下)三角部分一共有幾個元素,使用數列求和的方式,我們得到 1 + 2 + 3 + + D = D ( D + 1 ) / 2 1+2+3+\dots+D=D(D+1)/2 ,因此獨立的元素數量就是這麼多。

1.15

根據題目1.14可知,由所有 w i 1 i 2 i M w_{i_{1}i_{2}\dots i _{M}} 構成的高維張量也是一個高維對稱張量,其中的獨立元素使用 w ~ i 1 i 2 i M \tilde{w}_{i_{1}i_{2}\dots i _{M}} 表示,此時要證明的式子就比較好理解了,由於張量的對稱性質,其餘元素都是非獨立的,因此均可不做考慮,在根據 i 1 i_{1} i M i_{M} 確定了張量的維度順序後,假設 i 1 = 1 i_1 = 1 ,那麼由於剩下的維度中非獨立元素所處的維度小於等於第一維的維度,因此 i 2 i_2 的上限是 i 1 i_1 ,同理,剩下的和式也是可以推出來的。由此我們可以得到形式爲 i 1 = 1 D i 2 = 1 i 1 i M = 1 i M 1 w ~ i 1 i 2 i M x i 1 x i 2 x i M \sum_{i_{1}=1}^{D} \sum_{i_{2}=1}^{i_{1}} \cdots \sum_{i_{M}=1}^{i_{M-1}} \widetilde{w}_{i_{1} i_{2} \cdots i_{M}} x_{i_{1}} x_{i_{2}} \cdots x_{i_{M}}

Tips:實際上我還是沒有想明白對稱的高維張量是長啥樣的。

接着要證明 n ( D , M ) = i = 1 D n ( i , M 1 ) n(D, M)=\sum_{i=1}^{D} n(i, M-1) ,這個也很簡單,就將上面第一問的結果拿來用,最外圍的求和就是在 i 1 i_1 1 1 取到 D D 的過程中後方所有項的求和,而 i 2 i_2 i M i_M 一共有 M 1 M-1 項,所以得證。這個遞推式還是比較直觀的。

第三小問歸納法也很直接, D = 1 D=1 的情況下, i = 1 D ( i + M 2 ) ! ( i 1 ) ! ( M 1 ) ! = ( M 1 ) ! ( M 1 ) ! = 1 = ( D + M 1 ) ! ( D 1 ) ! M ! = ( 1 + M 1 ) ! ( 1 1 ) ! M ! = M ! M ! \sum_{i=1}^{D} \frac{(i+M-2) !}{(i-1) !(M-1) !}=\frac{(M-1)!}{(M-1)!}=1=\frac{(D+M-1) !}{(D-1) ! M !}=\frac{(1+M-1) !}{(1-1) ! M !}=\frac{M!}{M!} ,此時等式成立,假設取數字 D D 時,等式成立,則 i = 1 D ( i + M 2 ) ! ( i 1 ) ! ( M 1 ) ! = ( D + M 1 ) ! ( D 1 ) ! M ! \sum_{i=1}^{D} \frac{(i+M-2) !}{(i-1) !(M-1) !}=\frac{(D+M-1) !}{(D-1) ! M !} ,則取數字 D + 1 D+1 時, i = 1 D + 1 ( i + M 2 ) ! ( i 1 ) ! ( M 1 ) ! = i = 1 D [ ( i + M 2 ) ! ( i 1 ) ! ( M 1 ) ! ] + ( D + M 1 ) ! D ! ( M 1 ) ! = ( D + M 1 ) ! ( D 1 ) ! M ! + ( D + M 1 ) ! D ! ( M 1 ) ! = ( D + M ) ( D + M 1 ) ! D ! M ! \sum_{i=1}^{D+1} \frac{(i+M-2) !}{(i-1) !(M-1) !}=\sum_{i=1}^{D} [\frac{(i+M-2) !}{(i-1) !(M-1) !}]+\frac{(D+M-1) !}{D ! (M-1) !}=\frac{(D+M-1) !}{(D-1) ! M !}+\frac{(D+M-1) !}{D ! (M-1) !}=\frac{(D+M)(D+M-1)!}{D!M!} ,所以 i = 1 D + 1 ( i + M 2 ) ! ( i 1 ) ! ( M 1 ) ! = ( D + M ) ! D ! M ! = ( D + 1 + M 1 ) ! ( D + 1 1 ) ! M ! \sum_{i=1}^{D+1} \frac{(i+M-2) !}{(i-1) !(M-1) !}=\frac{(D+M)!}{D!M!}=\frac{(D+1+M-1)!}{(D+1-1)!M!} ,說明該式在 D + 1 D+1 時仍舊成立,從而歸納得證。

對於任意 D 1 D \ge 1 ,取 M = 2 M=2 ,則有 n ( D , M ) = ( D + M 1 ) ! ( D 1 ) ! M ! = ( D + 1 ) ! ( D 1 ) ! 2 ! = D ( D + 1 ) 2 n(D, M)=\frac{(D+M-1) !}{(D-1) ! M !}=\frac{(D+1) !}{(D-1) !2 !}=\frac{D(D+1)}{2} ,正如我們在題目1.14中得到結果一樣。現在假設 M 1 M-1 時,該式成立,即 n ( D , M 1 ) = ( D + M 2 ) ! ( D 1 ) ! ( M 1 ) ! n(D, M-1)=\frac{(D+M-2) !}{(D-1) ! (M-1) !} ,而 n ( D , M ) = i = 1 D n ( i , M 1 ) = i = 1 D ( i + M 2 ) ! ( i 1 ) ! ( M 1 ) ! n(D, M)=\sum_{i=1}^{D} n(i, M-1)=\sum_{i=1}^{D} \frac{(i+M-2) !}{(i-1) ! (M-1) !} ,又因爲 i = 1 D ( i + M 2 ) ! ( i 1 ) ! ( M 1 ) ! = ( D + M 1 ) ! ( D 1 ) ! M ! \sum_{i=1}^{D} \frac{(i+M-2) !}{(i-1) !(M-1) !}=\frac{(D+M-1) !}{(D-1) ! M !} ,所以 n ( D , M ) = ( D + M 1 ) ! ( D 1 ) ! M ! n(D, M)=\frac{(D+M-1) !}{(D-1) ! M !} ,所以在 M M 時,該式依舊成立,從而歸納得證。

1.16

第一小問很直觀,根據式(1.74)可知, n ( D , M ) n(D,M) 僅表徵了第 M M 階參數的獨立元素個數,現在的 N ( D , M ) N(D,M) 相當於求取所有階( 0 0 階到 M M 階)的獨立參數數量,因此 N ( D , M ) = m = 0 M n ( D , m ) N(D, M)=\sum_{m=0}^{M} n(D, m)

第二小問,當 M = 0 M=0 時, N ( D , M ) = ( D + M ) ! D ! M ! = 1 N(D, M)=\frac{(D+M) !}{D ! M !}=1 ,這與實際相符,當僅含有 0 0 階時,由於 x x 無關,所以實際上就一個常數項,因此參數的數量就是 1 1 。現在假設 M M 時成立,即 N ( D , M ) = ( D + M ) ! D ! M ! N(D, M)=\frac{(D+M) !}{D ! M !} ,則取 M + 1 M+1 時, N ( D , M + 1 ) = ( D + M ) ! D ! M ! + n ( D , M + 1 ) = ( D + M ) ! D ! M ! + ( D + M ) ! ( D 1 ) ! ( M + 1 ) ! = ( M + 1 ) ( D + M ) ! + D ( D + M ) ! D ! ( M + 1 ) ! = ( D + M + 1 ) ! D ! ( M + 1 ) ! N(D, M+1)=\frac{(D+M) !}{D ! M !}+n(D,M+1)=\frac{(D+M) !}{D ! M !}+\frac{(D+M) !}{(D-1) ! (M+1) !}=\frac{(M+1)(D+M)!+D(D+M)!}{D!(M+1)!}=\frac{(D+M+1)!}{D!(M+1)!} ,這裏使用了式(1.137)的結論,從而歸納得證。

第三小問使用了斯特林公式 n ! n n e n n ! \simeq n^{n} e^{-n} ,若 D M D \gg M ,則 N ( D , M ) = ( D + M ) ! D ! M ! ( D + M ) ! D ! ( D + M ) D + M e ( D + M ) D D e D ( D + M ) D + M D D D D + M D D = D M N(D, M)=\frac{(D+M) !}{D ! M !} \simeq \frac{(D+M)!}{D!} \simeq \frac{(D+M)^{D+M}e^{-(D+M)}}{D^De^{-D}} \simeq \frac{(D+M)^{D+M}}{D^D} \simeq \frac{D^{D+M}}{D^D}=D^M ,同理,若 M D M \gg D ,則有 N ( D , M ) = ( D + M ) ! D ! M ! ( D + M ) ! M ! ( D + M ) D + M e ( D + M ) M M e M ( D + M ) D + M M M M D + M M M = M D N(D, M)=\frac{(D+M) !}{D ! M !} \simeq \frac{(D+M)!}{M!} \simeq \frac{(D+M)^{D+M}e^{-(D+M)}}{M^Me^{-M}} \simeq \frac{(D+M)^{D+M}}{M^M} \simeq \frac{M^{D+M}}{M^M}=M^D ,從而得證。

N ( 10 , 3 ) = ( 10 + 3 ) ! 10 ! 3 ! = 286 N(10, 3)=\frac{(10+3) !}{10 ! 3 !}=286 N ( 100 , 3 ) = ( 100 + 3 ) ! 100 ! 3 ! = 176851 N(100, 3)=\frac{(100+3) !}{100 ! 3 !}=176851

1.17

已知 Γ ( x ) 0 u x 1 e u d u \Gamma(x) \equiv \int_{0}^{\infty} u^{x-1} e^{-u} \mathrm{d} u ,根據分部積分法,可以得到 Γ ( x ) = 0 u x 1 d e u = u x 1 e u 0 + 0 e u d u x 1 = 0 e u d u x 1 \Gamma(x)=\int_{0}^{\infty}-u^{x-1}\mathrm{d}e^{-u}=-u^{x-1}e^{-u}|_0^{\infty}+\int_{0}^{\infty}e^{-u}\mathrm{d}u^{x-1}=\int_{0}^{\infty}e^{-u}\mathrm{d}u^{x-1} ,前半部分的積分爲 0 0 不做贅述,簡單說明一下就是 x x 是有限項,而 u u 取無限大項時,無限大的有限次方除以 e e 的無限大次方時趨近於 0 0 ,你也可以用MATLAB測試一下。而 Γ ( x + 1 ) = 0 e u d u x = 0 x e u d u x 1 = x Γ ( x ) \Gamma(x+1)=\int_{0}^{\infty}e^{-u}\mathrm{d}u^{x}=\int_{0}^{\infty}xe^{-u}\mathrm{d}u^{x-1}=x\Gamma(x) ,得證。

Γ ( 1 ) = 0 e u d u = e u 0 = 1 \Gamma(1)=\int_{0}^{\infty}e^{-u}\mathrm{d}u=-e^{-u}|_0^{\infty}=1 ,得證。

x x 爲整數,那麼 Γ ( x + 1 ) = 0 e u d u x \Gamma(x+1) = \int_{0}^{\infty}e^{-u}\mathrm{d}u^{x} ,式子中,微分項 u x u^{x} 的次冪就可以一直取下來,得到 Γ ( x + 1 ) = 0 e u d u x = x ! 0 e u d u = x ! \Gamma(x+1) = \int_{0}^{\infty}e^{-u}\mathrm{d}u^{x}=x!\int_{0}^{\infty}e^{-u}\mathrm{d}u=x!

1.18

有一個疑問,式(1.142)中,爲何就稱那一項爲 S D S_D 的呢?憑什麼那一項所代表的的含義就是 D D 維空間中單位球體的表面積呢?我自己想了一下,但是也只是一個頭緒,我們看一下題目1.7中的計算過程,其中有一步是算到了 I 2 = o 2 π 0 exp ( 1 2 σ 2 r 2 ) r d r d θ I^{2}=\int_o^{2 \pi}\int_0^{\infty}\exp(-\frac{1}{2\sigma^2}r^2)r\mathrm{d}r\mathrm{d}\theta ,爲了和本題結合,我們取 σ 2 = 1 / 2 \sigma^2=1/2 ,則有 I 2 = o 2 π 0 exp ( r 2 ) r d r d θ I^{2}=\int_o^{2 \pi}\int_0^{\infty}\exp(-r^2)r\mathrm{d}r\mathrm{d}\theta ,將這個公式對照題目1.18裏面的式(1.142),就可以看到, S D S_D 就是我們算出來的這個雙重積分項 o 2 π 0 exp ( r 2 ) r d r d θ \int_o^{2 \pi}\int_0^{\infty}\exp(-r^2)r\mathrm{d}r\mathrm{d}\theta 除以這個積分項內層的積分,簡單來說,通過這麼一個除法,原本對於整個平面的積分( r r 0 0 取到 \infty ),變成了單位長度,同時又消除了 exp ( r 2 ) \exp (-r^2) 這一項的積分影響,相當於算了一個在極小角度下的單位半徑的扇形的面積,那麼再對這個扇形進行角度上的積分,轉一圈就得到了單位圓的面積。所以式(1.142)就是這個過程在更高維空間的一個推廣。這是我的理解。

首先,根據式(1.126),可以推知, i = 1 D e x i 2 d x i = π D / 2 \prod_{i=1}^{D} \int_{-\infty}^{\infty} e^{-x_{i}^{2}} \mathrm{d} x_{i}=\pi^{D/2} ,簡單說一下就是,根據式(1.126),我們知道在 D = 2 D=2 的時候, i = 1 2 e x i 2 d x i = π \prod_{i=1}^{2} \int_{-\infty}^{\infty} e^{-x_{i}^{2}} \mathrm{d} x_{i}=\pi ,所以就比較明顯了。這樣子我們就有了左式的值,對於右式,可以轉化爲 S D 0 e r 2 r D 1 d r = S D 1 2 0 e r 2 ( r 2 ) D / 2 1 d r 2 S_{D} \int_{0}^{\infty} e^{-r^{2}} r^{D-1} \mathrm{d} r=S_D\frac{1}{2}\int_0^{\infty}e^{-r^2}(r^2)^{D/2-1}\mathrm{d}r^2 ,根據題目1.17,也就可以看出, S D 0 e r 2 r D 1 d r = S D 1 2 Γ ( D / 2 ) S_{D} \int_{0}^{\infty} e^{-r^{2}} r^{D-1} \mathrm{d} r=S_D\frac{1}{2}\Gamma(D/2) ,所以 π D / 2 = S D 1 2 Γ ( D / 2 ) \pi^{D/2}=S_D\frac{1}{2}\Gamma(D/2) ,所以 S D = 2 π D / 2 Γ ( D / 2 ) S_{D}=\frac{2 \pi^{D / 2}}{\Gamma(D / 2)}

同樣用簡單一點的情況來幫助我們理解複雜的高維情況,比如說我們現在知道一個單位圓的周長,如何得到單位圓的面積呢,已知單位圓周長爲 2 π 2\pi ,面積就相當於這個單位圓向內放縮後直至變成零點的所有圓的周長積分,同時,還需要了解一個基本事實,那就是在一個 D D 維空間中,其體積的大小正比於 r D r^D ,而表面積則正比於 r D 1 r^{D-1} 。現在我們舉的例子是在 2 2 維空間下,因此二維單位圓面積就等於 0 1 2 π r 2 1 d r = π \int_0^1 2\pi r^{2-1}\mathrm{d}r=\pi ,這也符合我們已知的先驗事實。因此, V D = 0 1 S D r D 1 d r = S D 1 D r D 0 1 = S D D V_D=\int_0^1S_D r^{D-1}\mathrm{d}r=S_D \frac{1}{D}r^D|_0^1=\frac{S_D}{D}

D = 2 D=2 時, S D = 2 π S_D=2\pi V D = π V_D=\pi D = 3 D=3 時, S D = 4 π S_D=4\pi V D = 4 3 π V_D=\frac{4}{3}\pi

多說一點,PRML書中說在高維空間中,球體體積就幾乎完全貼近表面分佈,其實在 2 2 維單位圓中這種現象就已經初現端倪了,在剛剛給出的求出單位圓面積的積分過程中,很明顯越靠近圓心的單位圓,其周長越小,對整個圓的表面積貢獻越小,而半徑越接近 1 1 的圓其周長越大,對整個圓的表面積貢獻就越大,這種效應在高維空間中會表現得更加顯著,因爲往高維變化的過程中,周長正比於半徑的 D 1 D-1 次方,次冪會加劇這種拉扯。感性理解一下就好。

1.19

半徑爲 a a D D 維超球,體積就是 0 a S D r D 1 d r = S D a D / D \int_0^a S_D r^{D-1}\mathrm{d}r=S_D a^D/D ,而邊長爲 2 a 2a D D 維超立方體體積很容易求得爲 2 D a D 2^Da^D ,因此 volumeofsphere volumeofcube = S D D 2 D = 2 π D / 2 Γ ( D / 2 ) D 2 D = π D / 2 D 2 D 1 Γ ( D / 2 ) \frac{\operatorname{volume of sphere} }{\operatorname{volume of cube} }=\frac{S_D}{D2^D}=\frac{\frac{2 \pi^{D / 2}}{\Gamma(D / 2)}}{D2^D}=\frac{\pi^{D / 2}}{D 2^{D-1}\Gamma(D / 2)} 。因此在超高維空間中,單位超球的體積對於包絡住這個單位超球的超立方體而言是微不足道的。

第二小問這個直接帶進去,很容易看到趨近於 0 0 ,不做贅述。

D D 維空間中,邊長爲 2 a 2a 的超立方體的中心到角落的距離爲 1 D a 2 = D a 2 = D a \sqrt{\sum_1^D a^2}=\sqrt{Da^2}=\sqrt{D}a ,所以其與半徑之比就是 D \sqrt{D} 。如果你要問爲什麼這麼求,其實依然是可以從簡單的情況出發的,比如說在三維空間中,你爲了求出立方體的中心到角落的距離,就是使用兩次勾股定理,相當於進行兩次降維,最終到達角落所處的點。如果從線性代數的角度來說的話,就是我們沿着標準基的方向走。還是比較好理解的。

1.20

式(1.148)可以直觀得到,在使用 r r 作爲隨機變量後,一個隨機變量對應的幾何形式就是「一週」,例如二維高斯分佈中,依題目中均值均爲 0 0 ,且方差相等的設置,同一 r r 對應的就是以原點爲中心的圓形,因此其對應的概率函數就是「周長」乘以對應的概率值,即 p ( r ) = S D r D 1 ( 2 π σ 2 ) D / 2 exp ( r 2 2 σ 2 ) p(r)=\frac{S_D r^{D-1}}{(2\pi \sigma^2)^{D/2}}\exp (-\frac{r^2}{2\sigma^2})

第二小問 d p ( r ) d r = ( D 1 ) S D r D 2 ( 2 π σ 2 ) D / 2 exp ( r 2 2 σ 2 ) + S D r D σ 2 ( 2 π σ 2 ) D / 2 exp ( r 2 2 σ 2 ) = 0 \frac{\mathrm{d}p(r)}{\mathrm{d}r}=\frac{(D-1)S_D r^{D-2}}{(2\pi \sigma^2)^{D/2}}\exp (-\frac{r^2}{2\sigma^2})+\frac{-S_D r^{D}}{\sigma^2(2\pi \sigma^2)^{D/2}}\exp (-\frac{r^2}{2\sigma^2})=0 ,等式兩邊除以一些共有項,則有 ( r D 2 ) ( D 1 ) = r D σ 2 (r^{D-2})(D-1)=\frac{r^{D}}{\sigma^2} ,因爲 D D 足夠大,因此可以轉化爲 ( r D 2 ) D r D σ 2 (r^{D-2})D \simeq \frac{r^{D}}{\sigma^2} ,所以 r ^ D σ \hat{r}\simeq \sqrt{D}\sigma

已知 p ( r ) r D 1 exp ( r 2 2 σ 2 ) = exp { r 2 2 σ 2 + ( D 1 ) ln ( r ) } p(r) \propto r^{D-1} \exp (-\frac{r^2}{2\sigma^2})=\exp \{-\frac{r^2}{2 \sigma^2}+(D-1)\ln (r)\} ,需要注意,式子中省略了 S D ( 2 π σ 2 ) D / 2 \frac{S_D}{(2\pi \sigma^2)^{D/2}} 這一項,在駐點附近,使用泰勒級數展開,以求出 ln ( r ^ + ϵ ) \ln (\hat{r}+\epsilon) ,所以 p ( r ^ + ϵ ) exp { ( r ^ + ϵ ) 2 2 σ 2 + ( D 1 ) ln ( r ^ + ϵ ) } p(\hat{r}+\epsilon) \propto\exp \{-\frac{(\hat{r}+\epsilon)^2}{2 \sigma^2}+(D-1)\ln (\hat{r}+\epsilon)\} ,而 ln ( r ^ + ϵ ) ln ( r ^ ) + 1 r ^ ϵ 1 2 r ^ 2 ϵ 2 \ln (\hat{r}+\epsilon)\simeq \ln(\hat{r})+\frac{1}{\hat{r}}\epsilon-\frac{1}{2\hat{r}^2}\epsilon^2 ,放進去就可以得到 p ( r ^ + ϵ ) exp { ( r ^ + ϵ ) 2 2 σ 2 + ( D 1 ) ( ln ( r ^ ) + 1 r ^ ϵ 1 2 r ^ 2 ϵ 2 ) } = r ^ D 1 exp ( ( r ^ + ϵ ) 2 2 σ 2 + ( D 1 ) ( 1 r ^ ϵ 1 2 r ^ 2 ϵ 2 ) ) p(\hat{r}+\epsilon) \propto\exp \{-\frac{(\hat{r}+\epsilon)^2}{2 \sigma^2}+(D-1)( \ln(\hat{r})+\frac{1}{\hat{r}}\epsilon-\frac{1}{2\hat{r}^2}\epsilon^2)\}=\hat{r}^{D-1}\exp(-\frac{(\hat{r}+\epsilon)^2}{2 \sigma^2}+(D-1)(\frac{1}{\hat{r}}\epsilon-\frac{1}{2\hat{r}^2}\epsilon^2)) ,在指數項中代入 r ^ D σ \hat{r}\simeq \sqrt{D}\sigma ,同時由於 D D 很大,因此得到 p ( r ^ + ϵ ) r ^ D 1 exp ( ( r ^ + ϵ ) 2 2 σ 2 + 2 r ^ ϵ ϵ 2 2 σ 2 ) p(\hat{r}+\epsilon) \propto\hat{r}^{D-1}\exp(-\frac{(\hat{r}+\epsilon)^2}{2 \sigma^2}+\frac{2\hat{r}\epsilon-\epsilon^2}{2\sigma^2}) ,也就是 p ( r ^ + ϵ ) r ^ D 1 exp ( r ^ 2 2 σ 2 2 ϵ 2 2 σ 2 ) p(\hat{r}+\epsilon) \propto\hat{r}^{D-1}\exp(-\frac{\hat{r}^2}{2 \sigma^2}-\frac{2\epsilon^2}{2\sigma^2}) ,所以 p ( r ^ + ϵ ) = p ( r ^ ) exp ( ϵ 2 σ 2 ) p(\hat{r}+\epsilon)=p(\hat{r})\exp(-\frac{\epsilon^2}{\sigma^2}) 。這裏我算出來和題目給的不一樣,我檢查了好幾遍,級數展開那邊是沒有問題的。留待觀察吧。

p ( x = 0 ) = 1 ( 2 π σ 2 ) D / 2 p(||\mathbf{x}||=\mathbf{0})=\frac{1}{(2\pi \sigma^2)^{D/2}} p ( x = r ^ ) = 1 ( 2 π σ 2 ) D / 2 exp ( D / 2 ) p(||\mathbf{x}||=\hat{r})=\frac{1}{(2\pi \sigma^2)^{D/2}}\exp(-D/2) ,因此 p ( x = 0 ) = p ( x = r ^ ) exp ( D / 2 ) p(||\mathbf{x}||=\mathbf{0})=p(||\mathbf{x}||=\hat{r})\exp(-D/2)

1.21

因爲 0 a b 0 \le a \le b ,所以 a 2 a b a^2 \le ab ,所以 a ( a b ) 1 / 2 a \le (ab)^{1/2}

[外鏈圖片轉存失敗(img-2amJrAcX-1565057031898)(.\curve.jpg)]

這裏我按照書中的Figure 1.24繪製了上圖,按照最小化誤差率進行了分割,那麼可以看到,兩條概率曲線是有重合的部分的,我設其對應的隨機變量取值分別爲 K 1 K_1 K 3 K_3 ,而分割處對應的隨機變量爲 K 2 K_2 ,由式(1.78)可知, p ( mistake ) = R 1 p ( x , C 2 ) d x + R 2 p ( x , C 1 ) d x p(\operatorname{mistake})=\int_{\mathcal{R_1}}p(\mathbf{x, \mathcal{C}_2})\mathrm{d}\mathbf{x}+\int_{\mathcal{R_2}}p(\mathbf{x, \mathcal{C}_1})\mathrm{d}\mathbf{x} ,那麼根據上面這種圖片(左峯是 p ( x , C 1 ) p(\mathbf{x}, \mathcal{C}_1) ),我們更加精確地表達這個式子,即 p ( mistake ) = K 1 K 2 p ( x , C 2 ) d x + K 2 K 3 p ( x , C 1 ) d x = p(\operatorname{mistake})=\int_{K_1}^{K_2}p(\mathbf{x, \mathcal{C}_2})\mathrm{d}\mathbf{x}+\int_{K_2}^{K_3}p(\mathbf{x, \mathcal{C}_1})\mathrm{d}\mathbf{x}= a a ,而在隨機變量取值 K 1 K_1 K 3 K_3 之間的全部面積,其面積大小爲 b = K 1 K 2 p ( x , C 1 ) d x + K 2 K 3 p ( x , C 2 ) d x b=\int_{K_1}^{K_2}p(\mathbf{x, \mathcal{C}_1})\mathrm{d}\mathbf{x}+\int_{K_2}^{K_3}p(\mathbf{x, \mathcal{C}_2})\mathrm{d}\mathbf{x} ,可以看到 0 a b 0 \le a \le b ,因此就有 p ( mistake ) ( a b ) 1 / 2 p(\operatorname{mistake}) \le (ab)^{1/2} ,積分決定了兩項之間是否能夠相乘,因此就有 ( a b ) 1 / 2 = K 1 K 3 { p ( x , C 1 ) p ( x , C 2 ) } 1 / 2 d x (ab)^{1/2}=\int_{K_1}^{K_3}\{p(\mathbf{x, \mathcal{C}_1})p(\mathbf{x, \mathcal{C}_2})\}^{1/2}\mathrm{d}\mathbf{x} ,從而得證。

1.22

根據式(1.80)可知,當損失矩陣按照題目的意思設置時, E [ L ] = k j ( j k ) R j p ( x , C k ) d x \mathbb{E}[L]=\sum_k\sum_{j(j \ne k)}\int_{\mathcal{R}_j}p(\mathbf{x},\mathcal{C}_k)\mathrm{d}\mathbf{x} ,此時該式就相當於最小化 p ( mistake ) p(\operatorname{mistake}) 因此也就相當於退化爲,誰的後驗概率大就取誰的值。簡單來說就是,這種損失矩陣對於所有的錯誤判斷都一視同仁,權重都是 1 1 ,那這時候有沒有這個損失矩陣都沒差別了。也就變成了前一小節所說的最小化錯誤分類概率。

1.23

對於某一類,如 C j \mathcal{C}_j ,按照式(1.81),就相當於對該類最小化 k L k j p ( C k x ) \sum_k L_{kj}p(\mathcal{C}_k|\mathbf{x}) ,而 p ( C k x ) = p ( x C k ) p ( C k ) p ( x ) p(\mathcal{C}_k|\mathbf{x})=\frac{p(\mathbf{x}|\mathcal{C}_k)p(\mathcal{C}_k)}{p(\mathbf{x})} ,所以就要最小化 k L k j p ( x C k ) p ( C k ) p ( x ) \sum_k L_{kj}\frac{p(\mathbf{x}|\mathcal{C}_k)p(\mathcal{C}_k)}{p(\mathbf{x})}

1.24

這題我剛開始做是比較懵逼的,主要是看不懂題目,太難翻譯了有木有。來,我給大家準確梳理一下這道題的意思,分類問題中可以引入損失的權重來計算期望損失,並儘可能最小化該值,先不管什麼拒絕選項,那我們可以根據式(1.81)知道,當新來了一個 x \mathbf{x} 的時候,我要做的就是遍歷所有的 j j ,然後看哪個 j j 帶進去的時候, k L k j p ( C k x ) \sum_kL_{kj}p(\mathcal{C}_k|\mathbf{x}) 能取到最小值,而且按照書中的說法,決策論乾的這些個事都很簡單,畢竟推斷的階段,把那些個求解過程中需要的概率分佈都給決策論準備好了。那麼現在,我們再引入拒絕選項這個概念,所謂拒絕選項的含義就是,比如說在二分類問題中,就比如上面那張圖片,在 K 2 K_2 處,這倆的概率是完全相同的,如果從後驗概率的角度來說,就是這倆「五五開」。這種時候,數學也很爲難,拒絕選項就可以在這種接近於五五開的情況下做出拒絕判斷的選擇。而題目中給出的 λ \lambda 就是在使用期望分類損失之後引入的「損失閾值」,說實話,光看題目我愣是沒有抿出 λ \lambda 是這個意思,看了solution又悟了好久才把作者的整個思路弄明白。那就很簡單了,所謂的決策就是,在能夠使得 k L k j p ( C k x ) \sum_kL_{kj}p(\mathcal{C}_k|\mathbf{x}) 取得最小值的情況下,如果該值還是超過 λ \lambda ,就拒絕,其他情況就分類爲能夠使得 k L k j p ( C k x ) \sum_kL_{kj}p(\mathcal{C}_k|\mathbf{x}) 最小的那個第 j j 類。在 L k j = 1 I k j L_{kj}=1-I_{kj} 的情況下,與題目1.22一致,此時所有後驗分佈一視同仁,不厚此薄彼,根據sum rule,就可以得到 k p ( C k x ) = 1 p ( C j x ) \sum_kp(\mathcal{C}_k|\mathbf{x})=1-p(\mathcal{C}_j|\mathbf{x}) ,這時候,就是最開始我們接觸的沒有權重的拒絕選項了。對比Figure 1.26,也很容易得到 λ = 1 θ \lambda = 1-\theta

1.25

已知 E [ L ( t , y ( x ) ) ] = y ( x ) t 2 p ( x , t ) d x d t \mathbb{E}[L(\mathbf{t},\mathbf{y}(\mathbf{x}))]=\iint||\mathbf{y}(\mathbf{x})-\mathbf{t}||^2p(\mathbf{x},\mathbf{t})\mathrm{d}\mathbf{x}\mathrm{d}\mathbf{t} ,所以可得 δ E [ L ( t , y ( x ) ) ] δ y ( x ) = 2 { y ( x ) t } p ( x , t ) d t = 0 \frac{\delta \mathbb{E}[L(\mathbf{t},\mathbf{y}(\mathbf{x}))]}{\delta \mathbf{y}(\mathbf{x})}=2\int \{\mathbf{y}(\mathbf{x})-\mathbf{t} \} p(\mathbf{x},\mathbf{t})\mathrm{d}\mathbf{t}=0 ,所以可得 y ( x ) p ( x , t ) d t = t p ( x , t ) d t \mathbf{y}(\mathbf{x}) \int p(\mathbf{x},\mathbf{t}) \mathrm{d} \mathbf{t}=\int \mathbf{t} p(\mathbf{x},\mathbf{t}) \mathrm{d} \mathbf{t} 。根據sum rule,可推知 y ( x ) p ( x ) = t p ( x , t ) d t \mathbf{y}(\mathbf{x}) p(\mathbf{x})=\int \mathbf{t} p(\mathbf{x},\mathbf{t}) \mathrm{d} \mathbf{t} ,所以 y ( x ) = t p ( x , t ) d t p ( x ) = t p ( t x ) d t = E t [ t x ] \mathbf{y}(\mathbf{x})= \frac{ \int \mathbf{t} p(\mathbf{x},\mathbf{t}) \mathrm{d} \mathbf{t} }{ p(\mathbf{x})}= \int \mathbf{t} p(\mathbf{t}|\mathbf{x}) \mathrm{d} \mathbf{t}=\mathbb{E}_{\mathbf{t}}[\mathbf{t} | \mathbf{x}] 。很明顯,如果目標量由向量 t \mathbf{t} 變爲標量 t t ,則對應的結果就退化爲式(1.89),即 y ( x ) = E t [ t x ] y(\mathbf{x})=\mathbb{E}_{t}[t | \mathbf{x}]

1.26

這道題很簡單,依葫蘆畫瓢即可,那些過程和繁雜的公式我寧可不耗費時間去把它打出來,我有一個疑問,那就是爲什麼中間的那個交叉項消失了?

先來看式(1.90)的推導過程中的那個式子 { y ( x ) t } 2 = { y ( x ) E [ t x ] } 2 + 2 { y ( x ) E [ t x ] } { E [ t x ] t } + { E [ t x ] t } 2 \{ y(\mathbf{x}) - t \}^2 = \{ y(\mathbf{x}) - \mathbb{E}[t|\mathbf{x}] \}^2 + 2\{ y(\mathbf{x}) - \mathbb{E}[t|\mathbf{x}] \} \{ \mathbb{E}[t|\mathbf{x}] - t \} + \{ \mathbb{E}[t|\mathbf{x}] - t \}^2 ,中間的交叉項在積分過程中即 2 { y ( x ) E [ t x ] } { E [ t x ] t } p ( x , t ) d x d t \iint 2\{ y(\mathbf{x}) - \mathbb{E}[t|\mathbf{x}] \} \{ \mathbb{E}[t|\mathbf{x}] - t \} p(\mathbf{x},t)\mathrm{d}\mathbf{x}\mathrm{d}t ,注意,式子中, E [ t x ] \mathbb{E}[t|\mathbf{x}] E t [ t x ] \mathbb{E}_t[t|\mathbf{x}] 的簡寫,所以 E [ t x ] \mathbb{E}[t|\mathbf{x}] 是關於 x \mathbf{x} 的表達式,中間項的積分即 2 { y ( x ) E [ t x ] y ( x ) t ( E [ t x ] ) 2 + t E [ t x ] } p ( x , t ) d x d t 2\iint \{y(\mathbf{x})\mathbb{E}[t|\mathbf{x}] - y(\mathbf{x}) t - (\mathbb{E}[t|\mathbf{x}])^2 + t\mathbb{E}[t|\mathbf{x}] \} p(\mathbf{x},t)\mathrm{d}\mathbf{x}\mathrm{d}t ,這裏說白了就是四項之和的雙重積分,一項一項來看,忽略掉最前面的係數 2 2 ,第一項爲 y ( x ) E [ t x ] p ( x , t ) d x d t = y ( x ) E [ t x ] p ( x , t ) d t d x = y ( x ) E [ t x ] p ( x ) d x \iint y(\mathbf{x})\mathbb{E}[t|\mathbf{x}]p(\mathbf{x},t)\mathrm{d}\mathbf{x}\mathrm{d}t=\int y(\mathbf{x})\mathbb{E}[t|\mathbf{x}] \int p(\mathbf{x},t)\mathrm{d}t \mathrm{d}\mathbf{x}=\int y(\mathbf{x}) \mathbb{E}[t|\mathbf{x}]p(\mathbf{x})\mathrm{d}\mathbf{x} ,第二項爲 y ( x ) t p ( x , t ) d x d t = y ( x ) p ( x ) t p ( x , t ) p ( x ) d t d x = y ( x ) p ( x ) E [ t x ] d x \iint -y(\mathbf{x})t p(\mathbf{x},t) \mathrm{d}\mathbf{x}\mathrm{d}t=\int -y(\mathbf{x})p(\mathbf{x}) \int t\frac{p(\mathbf{x},t)}{p(\mathbf{x})}\mathrm{d}t \mathrm{d}\mathbf{x}=\int -y(\mathbf{x}) p(\mathbf{x})\mathbb{E}[t|\mathbf{x}]\mathrm{d}\mathbf{x} ,這樣一來,第一項和第二項就抵消了,第三項爲 ( E [ t x ] ) 2 p ( x , t ) d x d t = ( E [ t x ] ) 2 p ( x , t ) d t d x = ( E [ t x ] ) 2 p ( x ) d x \iint -(\mathbb{E}[t|\mathbf{x}])^2p(\mathbf{x},t)\mathrm{d}\mathbf{x}\mathrm{d}t=\int -(\mathbb{E}[t|\mathbf{x}])^2 \int p(\mathbf{x},t)\mathrm{d}t \mathrm{d}\mathbf{x}=\int -(\mathbb{E}[t|\mathbf{x}])^2p(\mathbf{x})\mathrm{d}\mathbf{x} ,第四項爲 t E [ t x ] p ( x , t ) d x d t = E [ t x ] p ( x ) t p ( x , t ) p ( x ) d t d x = ( E [ t x ] ) 2 p ( x ) d x \iint t\mathbb{E}[t|\mathbf{x}]p(\mathbf{x},t)\mathrm{d}\mathbf{x}\mathrm{d}t=\int \mathbb{E}[t|\mathbf{x}] p(\mathbf{x}) \int t \frac{p(\mathbf{x},t)}{p(\mathbf{x})}\mathrm{d}t \mathrm{d}\mathbf{x}=\int (\mathbb{E}[t|\mathbf{x}])^2p(\mathbf{x})\mathrm{d}\mathbf{x} ,這樣一來,第三項和第四項也抵消了,如此即可得到式(1.90)的結果。

本題實際上是一樣的推導過程,只是由於變成了向量,在處理時需要注意中間項變爲了 ( y ( x ) E [ t x ] ) T ( E [ t x ] t ) + ( E [ t x ] t ) T ( y ( x ) E [ t x ] ) (\mathbf{y}(\mathbf{x})-\mathbb{E}[\mathbf{t}|\mathbf{x}])^{\operatorname{T}}(\mathbb{E}[\mathbf{t}|\mathbf{x}] - \mathbf{t}) + (\mathbb{E}[\mathbf{t}|\mathbf{x}] - \mathbf{t})^{\operatorname{T}}(\mathbf{y}(\mathbf{x})-\mathbb{E}[\mathbf{t}|\mathbf{x}]) ,因此最終結果可以寫成 E [ L ] = y ( x ) E [ t x ] 2 p ( x ) d x + var [ t x ] p ( x ) d x \mathbb{E}[L]=\int ||\mathbf{y}(\mathbf{x}) - \mathbb{E}[\mathbf{t}|\mathbf{x}]||^2p(\mathbf{x})\mathrm{d}\mathbf{x}+\int \operatorname{var}[\mathbf{t}|\mathbf{x}]p(\mathbf{x})\mathrm{d}\mathbf{x}

1.27

實話說,看到這題的我也是懵逼的,說起來很簡單,就是要保證 E [ L q ] \mathbb{E}[L_q] 可微,且其微分等於 0 0 是有解的。但是問題來了,對誰微分呢?考慮到問題中問的是 y ( x ) y(\mathbf{x}) 需要滿足的條件,而雙重積分的微分也是相當棘手,所以最終我還是翻看了solution。作者的意思是既然 y ( x ) y(\mathbf{x}) 是由我們選擇的,同時 p ( t , x ) p(t,\mathbf{x}) 正比於 p ( t x ) p(t|\mathbf{x}) ,那麼這個雙重積分也就可以表達爲 y ( x ) t q p ( t x ) d t \int |y(\mathbf{{x}})-t|^q p(t|\mathbf{x})\mathrm{d}t ,在這個式子基礎上,對 y ( x ) y(\mathbf{x}) 進行微分,得到 q y ( x ) t q 1 sign ( y ( x ) t ) p ( t x ) d t = 0 \int q |y(\mathbf{{x}})-t|^{q-1} \operatorname{sign}(y(\mathbf{{x}})-t)p(t|\mathbf{x})\mathrm{d}t=0 ,本來走到這一步我覺得我勉強能夠理解(其實已經很困難了好嘛),作者又一波神奇操作,將其變爲 q ( y ( x ) y ( x ) t q 1 p ( t x ) d t y ( x ) y ( x ) t q 1 p ( t x ) d t ) = 0 q(\int_{- \infty}^{y(\mathbf{x})}|y(\mathbf{{x}})-t|^{q-1}p(t|\mathbf{x})\mathrm{d}t-\int^{\infty}_{y(\mathbf{x})}|y(\mathbf{{x}})-t|^{q-1}p(t|\mathbf{x})\mathrm{d}t)=0 ,所以要滿足的條件就是 y ( x ) y ( x ) t q 1 p ( t x ) d t = y ( x ) y ( x ) t q 1 p ( t x ) d t \int_{- \infty}^{y(\mathbf{x})}|y(\mathbf{{x}})-t|^{q-1}p(t|\mathbf{x})\mathrm{d}t=\int^{\infty}_{y(\mathbf{x})}|y(\mathbf{{x}})-t|^{q-1}p(t|\mathbf{x})\mathrm{d}t 。真的看不大懂每一步操作的理由是什麼。

好了我編不下去了,上面幾乎就是把solution翻譯了一遍,我選擇放棄,再想想看。

看了一段時間,稍微有了一些想法,可以看一下式(1.88),我們不妨就從這個角度切入。爲什麼選擇這個角度?因爲正是式(1.88)到式(1.89)的推導過程,推出了在 q = 2 q=2 的情況下,條件均值爲 y ( x ) y(\mathbf{x}) 最優解。因此,我們二話不說依葫蘆畫瓢進行微分(這裏使用到了變分法,不做贅述),得到了 δ E [ L ] δ y ( x ) = q y ( x ) t q 1 sign ( y ( x ) t ) p ( x , t ) d t = 0 \frac{\delta \mathbb{E}[L]}{\delta y(\mathbf{x})}=q\int |y(\mathbf{x})-t|^{q-1} \operatorname{sign}(y(\mathbf{{x}})-t) p(\mathbf{x},t)\mathrm{d}t=0 。那麼之所以要使用 y ( x ) y(\mathbf{x}) 來進行區間的劃分,也是爲了簡化該式的符號項,這纔有了 q ( y ( x ) ( t y ( x ) ) q 1 p ( t x ) d t + y ( x ) ( y ( x ) t ) q 1 p ( t x ) d t ) = 0 q(\int_{- \infty}^{y(\mathbf{x})}(t-y(\mathbf{{x}}))^{q-1}p(t|\mathbf{x})\mathrm{d}t+\int^{\infty}_{y(\mathbf{x})}(y(\mathbf{{x}})-t)^{q-1}p(t|\mathbf{x})\mathrm{d}t)=0 ,這樣符號關係就對了,之後再轉換一下正負號,將兩部分分別挪至等號兩側,就有了 y ( x ) ( y ( x ) t ) q 1 p ( t x ) d t = y ( x ) ( y ( x ) t ) q 1 p ( t x ) d t \int_{- \infty}^{y(\mathbf{x})}(y(\mathbf{{x}})-t)^{q-1}p(t|\mathbf{x})\mathrm{d}t=\int^{\infty}_{y(\mathbf{x})}(y(\mathbf{{x}})-t)^{q-1}p(t|\mathbf{x})\mathrm{d}t

如果 q = 1 q=1 ,則有 y ( x ) y(\mathbf{x}) 滿足 y ( x ) p ( t x ) d t = y ( x ) p ( t x ) d t \int_{- \infty}^{y(\mathbf{x})}p(t|\mathbf{x})\mathrm{d}t=\int^{\infty}_{y(\mathbf{x})}p(t|\mathbf{x})\mathrm{d}t ,也就是說 p ( t x ) p(t|\mathbf{x}) t < y ( x ) t<y(\mathbf{x}) 的區域中與 t p ( t x ) t \ge p(t|\mathbf{x}) 的區域上積分大小相同,此時 y ( x ) y(\mathbf{x}) 所在的位置也就是題目所謂的條件中數的含義。

如果 q 0 q \to 0 y ( x ) t q |y(\mathbf{{x}})-t|^{q} 趨近於 1 1 ,這樣的話 y ( x ) t q p ( t x ) d t \int |y(\mathbf{{x}})-t|^q p(t|\mathbf{x})\mathrm{d}t 也就趨近於 1 1 。但是當 y ( x ) y(\mathbf{{x}}) t t 之間的距離同樣非常靠近時, y ( x ) t q |y(\mathbf{{x}})-t|^{q} 趨近於 1 1 這一點就要打個問號了,這種情況下, y ( x ) t q |y(\mathbf{{x}})-t|^{q} 會比 1 1 還要小一些(可以使用MATLAB進行驗證)。這樣一來,能夠使得這個「小一些」足夠小的 y ( x ) y(\mathbf{{x}}) 也就要儘可能靠近出現概率最大的 t t 值,此時,相當於 y ( x ) y(\mathbf{{x}}) 就是條件分佈的衆數。

1.28

n n 爲正整數爲前提條件下, h ( p 2 ) = h ( p ) + h ( p ) = 2 h ( p ) h(p^2)=h(p)+h(p)=2h(p) h ( p n ) = h ( p ) + + h ( p ) = n h ( p ) h(p^n)=h(p)+\dots+h(p)=nh(p)

m m 爲正整數爲前提條件下, h ( p n / m ) = n h ( p 1 / m ) = n m m h ( p 1 / m ) = n m h ( p ) h(p^{n/m})=nh(p^{1/m})=\frac{n}{m}mh(p^{1/m})=\frac{n}{m}h(p) 。這裏你可以將 p 1 / m p^{1/m} 看成上面公式中的 p p ,視其爲一個整體,因爲題中對 p p 是沒有任何要求的。這樣一來,就可以看到,對於任何一個正整數 x x h ( p x ) = x h ( p ) h(p^x)=xh(p)

最後一小問沒啥意思,不證了。

1.29

H [ x ] = i = 1 M p ( x i ) ln p ( x i ) = i = 1 M p ( x i ) ln p ( 1 x i ) \mathbf{H}[x]=\sum_{i=1}^M -p(x_i) \ln p(x_i) = \sum_{i=1}^M p(x_i) \ln p(\frac{1}{x_i}) ln \ln 函數是一個concave函數,因此 f ( i = 1 M λ i x i ) i = 1 M λ i f ( x i ) f(\sum_{i=1}^{M}\lambda_ix_i) \ge \sum_{i=1}^{M}\lambda_i f(x_i) ,這裏 p ( x i ) p(x_i) λ i \lambda_i ,滿足 λ i \lambda_i 所需的條件,因此 i = 1 M p ( x i ) ln ( 1 p ( x i ) ) ln ( i = 1 M p ( x i ) 1 p ( x i ) = ln M ) \sum_{i=1}^{M} p(x_i) \ln(\frac{1}{p(x_i)}) \le \ln(\sum_{i=1}^M p(x_i) \frac{1}{p(x_i)}=\ln M)
所以 H [ x ] ln M \mathbf{H}[x] \le \ln M

1.30

KL \operatorname{KL} 散度的表達中,我一直有一個疑問,就是爲什麼我們預估的分佈 q ( x ) q(x) 的信息熵是 p ( x ) ln q ( x ) d x -\int p(\mathbf{x}) \ln q(\mathbf{x}) \mathrm{d}\mathbf{x} ,而不是 q ( x ) ln p ( x ) d x -\int q(\mathbf{x}) \ln p(\mathbf{x}) \mathrm{d}\mathbf{x} ,最終覺得這是因爲按照後者那樣去寫的話,所謂的編碼平均附加信息量這個表達式,也就是 KL \operatorname{KL} 散度的數學表達式並不具有良好的數學性質,利用不到convex函數的相關性質。因此才使用了前者那種表達,但是我還想從更加合理的角度來看待這樣做的原因。

KL ( p q ) = p ( x ) ln { q ( x ) p ( x ) } d x = p ( x ) { ln p ( x ) ln q ( x ) } d x = p ( x ) { ln 1 ( 2 π σ 2 ) 1 / 2 exp ( ( x μ ) 2 2 σ 2 ) ln 1 ( 2 π s 2 ) 1 / 2 exp ( ( x m ) 2 2 s 2 ) } d x = p ( x ) { ln ( 2 π σ 2 ) 1 / 2 ( x μ ) 2 2 σ 2 + ln ( 2 π s 2 ) 1 / 2 + ( x m ) 2 2 s 2 } d x = p ( x ) { ln s σ } d x 1 2 σ 2 p ( x ) ( x μ ) 2 d x + 1 2 s 2 p ( x ) ( x m ) 2 d x = ln s σ + 1 2 s 2 p ( x ) ( x m ) 2 d x 1 2 = ln s σ + 1 2 s 2 p ( x ) ( x 2 2 m x + m 2 ) d x 1 2 = ln s σ + 1 2 s 2 ( μ 2 + σ 2 2 m μ + m 2 ) 1 2 = ln s σ + ( μ m ) 2 + σ 2 2 s 2 1 2 \begin{aligned} \operatorname{KL}(p||q)&=-\int p(x) \ln\{ \frac{q(x)}{p(x)} \} \mathrm{d}x \\ &= \int p(x) \{\ln p(x) - \ln q(x) \} \mathrm{d}x \\ &= \int p(x) \{ \ln \frac{1}{(2 \pi \sigma^2)^{1/2}} \exp(-\frac{(x-\mu)^2}{2\sigma^2}) - \ln \frac{1}{(2 \pi s^2)^{1/2}} \exp(-\frac{(x-m)^2}{2s^2}) \} \mathrm{d}x \\ &= \int p(x) \{ - \ln (2 \pi \sigma^2)^{1/2} - \frac{(x-\mu)^2}{2\sigma^2} + \ln (2 \pi s^2)^{1/2} + \frac{(x-m)^2}{2s^2} \} \mathrm{d}x \\ &= \int p(x) \{ \ln \frac{s}{\sigma} \} \mathrm{d}x - \frac{1}{2\sigma^2}\int p(x) (x-\mu)^2 \mathrm{d}x + \frac{1}{2s^2}\int p(x) (x-m)^2 \mathrm{d}x\\ &= \ln \frac{s}{\sigma} + \frac{1}{2s^2}\int p(x) (x-m)^2 \mathrm{d}x - \frac{1}{2}\\ &= \ln \frac{s}{\sigma} + \frac{1}{2s^2}\int p(x) (x^2 - 2mx + m^2) \mathrm{d}x - \frac{1}{2}\\ &= \ln \frac{s}{\sigma} + \frac{1}{2s^2}(\mu^2 + \sigma^2 - 2m \mu + m^2) - \frac{1}{2}\\ &= \ln \frac{s}{\sigma} + \frac{(\mu - m)^2 + \sigma^2}{2s^2} - \frac{1}{2} \end{aligned}

1.31

H [ x , y ] = p ( x , y ) ln p ( x , y ) d y d x = p ( x , y ) ln p ( y x ) d y d x p ( x , y ) ln p ( x ) d y d x = p ( x , y ) ln p ( y x ) d y d x ln p ( x ) p ( x , y ) d y d x = H [ y x ] ln p ( x ) p ( x ) d x = H [ y x ] + H [ x ] \begin{aligned} \operatorname{H}[\mathbf{x}, \mathbf{y}] &= -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}, \mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \\ &= -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{y}| \mathbf{x}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \\ &= -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{y}| \mathbf{x}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} -\int \ln p(\mathbf{x}) \int p(\mathbf{x}, \mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \\ &= \operatorname{H}[\mathbf{y}| \mathbf{x}] - \int \ln p(\mathbf{x}) p(\mathbf{x}) \mathrm{d}\mathbf{x} \\ &= \operatorname{H}[\mathbf{y}| \mathbf{x}] + \operatorname{H}[\mathbf{x}] \\ \end{aligned}

H [ x ] + H [ y ] = p ( x ) ln p ( x ) d x p ( y ) ln p ( y ) d y = p ( x , y ) ln p ( x ) d y d x p ( x , y ) ln p ( y ) d y d x = p ( x , y ) ln p ( x ) p ( y ) d y d x \begin{aligned} \operatorname{H}[\mathbf{x}] + \operatorname{H}[\mathbf{y}] &= -\int p(\mathbf{x}) \ln p(\mathbf{x}) \mathrm{d}\mathbf{x} -\int p(\mathbf{y}) \ln p(\mathbf{y}) \mathrm{d}\mathbf{y} \\ &= -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \\ &= -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x})p(\mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \end{aligned}

要證明 H [ x , y ] H [ x ] + H [ y ] \operatorname{H}[\mathbf{x}, \mathbf{y}] \le \operatorname{H}[\mathbf{x}] + \operatorname{H}[\mathbf{y}] ,即變爲證明
p ( x , y ) ln p ( x , y ) d y d x p ( x , y ) ln p ( x ) p ( y ) d y d x -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}, \mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \le -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x})p(\mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x}

根據互信息的定義,我們有
I [ x , y ] = KL ( p ( x , y ) p ( x ) p ( y ) ) = p ( x , y ) ln ( p ( x ) p ( y ) p ( x , y ) ) d y d x \begin{aligned}I[\mathbf{x}, \mathbf{y}] &= \operatorname{KL}(p(\mathbf{x}, \mathbf{y})||p(\mathbf{x})p(\mathbf{y})) \\ &= -\iint p(\mathbf{x}, \mathbf{y}) \ln (\frac{p(\mathbf{x})p(\mathbf{y})}{p(\mathbf{x}, \mathbf{y})}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \end{aligned}
I [ x , y ] 0 I[\mathbf{x}, \mathbf{y}] \ge 0 ,當且僅當兩變量互相獨立時等號才成立。所以
p ( x , y ) ln ( p ( x ) p ( y ) p ( x , y ) ) d y d x = p ( x , y ) ln ( p ( x ) p ( y ) ) d y d x + p ( x , y ) ln p ( x , y ) d y d x 0 \begin{gathered} -\iint p(\mathbf{x}, \mathbf{y}) \ln (\frac{p(\mathbf{x})p(\mathbf{y})}{p(\mathbf{x}, \mathbf{y})}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} =\\ -\iint p(\mathbf{x}, \mathbf{y}) \ln (p(\mathbf{x})p(\mathbf{y})) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} + \iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}, \mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \ge 0 \end{gathered}
所以得到
p ( x , y ) ln p ( x , y ) d y d x p ( x , y ) ln p ( x ) p ( y ) d y d x -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}, \mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \le -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x})p(\mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x}
結論成立,且只有在兩變量相互獨立時等號才成立。

實話說我感覺我這個是僞證明,因爲利用了互信息這個先驗知識,但是其實也沒差,互信息本身就是一種 KL \operatorname{KL} 散度,因此必然大於等於 0 0 。看了一眼solution給出的解法,我覺得相當奇怪,既然作者已經利用了互信息這個條件,爲什麼還整得那麼繞?

1.32

非奇異的隨機變量線性變換不會改變隨機變量的概率密度值,因此 p ( A x ) = p ( y ) p(\mathbf{Ax}) = p(\mathbf{y}) ,同時在概率密度一節中有提及: p ( x ) δ x = p ( y ) δ y p(\mathbf{x}) |\delta \mathbf{x}| = p(\mathbf{y}) | \delta \mathbf{y} | ,所以有 p ( x ) = p ( y ) δ y δ x = p ( y ) A p(\mathbf{x}) = p(\mathbf{y}) |\frac{\delta \mathbf{y}}{\delta \mathbf{x}}| = p(\mathbf{y}) | \mathbf{A} | ,所以
H [ y ] = p ( A x ) ln ( p ( A x ) ) d x = p ( x ) ln ( p ( x ) A 1 ) d x = p ( x ) ln ( x ) d x p ( x ) ln ( A 1 ) d x = H [ x ] + ln ( A ) \begin{aligned} \operatorname{H}[\mathbf{y}] &= -\int p(\mathbf{Ax}) \ln (p(\mathbf{Ax})) \mathrm{d}\mathbf{x} \\ &= -\int p(\mathbf{x}) \ln (p(\mathbf{x})|\mathbf{A}|^{-1}) \mathrm{d}\mathbf{x} \\ &= -\int p(\mathbf{x}) \ln (\mathbf{x}) \mathrm{d}\mathbf{x} -\int p(\mathbf{x}) \ln (|\mathbf{A}|^{-1}) \mathrm{d}\mathbf{x} \\ &= \operatorname{H}[\mathbf{x}] + \ln (|\mathbf{A}|) \end{aligned}

1.33

已知 H [ x , y ] = H [ y x ] + H [ x ] \operatorname{H}[\mathbf{x}, \mathbf{y}] = \operatorname{H}[\mathbf{y} | \mathbf{x}] + \operatorname{H}[\mathbf{x}] 。現在 H [ y x ] = 0 \operatorname{H}[\mathbf{y} | \mathbf{x}] = 0 ,所以 H [ x , y ] = H [ x ] \operatorname{H}[\mathbf{x}, \mathbf{y}] = \operatorname{H}[\mathbf{x}] 。因此
p ( x , y ) ln p ( x , y ) d y d x = p ( x , y ) ln p ( x ) d y d x \begin{aligned} -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}, \mathbf{y}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} = -\iint p(\mathbf{x}, \mathbf{y}) \ln p(\mathbf{x}) \mathrm{d}\mathbf{y} \mathrm{d}\mathbf{x} \end{aligned}
所以 p ( x , y ) = p ( x ) p(\mathbf{x}, \mathbf{y}) = p(\mathbf{x}) ,又因爲 p ( x , y ) = p ( y x ) p ( x ) p(\mathbf{x}, \mathbf{y}) = p(\mathbf{y}|\mathbf{x}) p(\mathbf{x}) ,從而得到 p ( y x ) = 1 p(\mathbf{y}|\mathbf{x}) = 1 ,也就是說,在知道了 x \mathbf{x} 的前提條件下, y \mathbf{y} 是多少一下子就知道了(因爲概率爲 1 1 ,所以說明對於一個固定的 x \mathbf{x} ,就只有一個固定的 y \mathbf{y} 與之對應),也就是說 y \mathbf{y} x \mathbf{x} 之間有着對應的函數關係。這個函數關係並不一定是一一對應的,而只是要求在 x \mathbf{x} 確定了的情況下,只有一個 y \mathbf{y} 與之對應,這是不排除一個相同的 y \mathbf{y} 對應多個不同的 x \mathbf{x} 這種情況的。

1.34

泛函 F F 爲:
p ( x ) ln p ( x ) d x + λ 1 ( p ( x ) d x 1 ) + λ 2 ( x p ( x ) d x μ ) + λ 3 ( ( x μ ) 2 p ( x ) d x σ 2 ) \begin{aligned} -\int_{-\infty}^{\infty} p(x) \ln p(x) \mathrm{d}x + \lambda_1 (\int_{-\infty}^{\infty} p(x) \mathrm{d}x - 1) + \lambda_2 (\int_{-\infty}^{\infty} xp(x) \mathrm{d}x - \mu) + \lambda_3 (\int_{-\infty}^{\infty} (x-\mu)^2 p(x) \mathrm{d}x - \sigma^2) \end{aligned}
整理可得:
{ p ( x ) ln p ( x ) + λ 1 p ( x ) + λ 2 x p ( x ) + λ 3 ( x μ ) 2 p ( x ) } d x + { λ 1 λ 2 μ λ 3 σ 2 ) } \begin{aligned} \int_{-\infty}^{\infty} \{-p(x) \ln p(x) + \lambda_1 p(x) + \lambda_2 xp(x) + \lambda_3 (x-\mu)^2 p(x) \} \mathrm{d}x + \{ - \lambda_1 - \lambda_2 \mu - \lambda_3\sigma^2)\} \end{aligned}

G = p ( x ) ln p ( x ) + λ 1 p ( x ) + λ 2 x p ( x ) + λ 3 ( x μ ) 2 p ( x ) \begin{aligned} G = -p(x) \ln p(x) + \lambda_1 p(x) + \lambda_2 xp(x) + \lambda_3 (x-\mu)^2 p(x) \end{aligned}
則有
d G d p ( x ) = ln p ( x ) 1 + λ 1 + λ 2 x + λ 3 ( x μ ) 2 = 0 \begin{aligned} \frac{\mathrm{d}G}{\mathrm{d}p(x)} &= -\ln p(x) - 1 + \lambda_1 + \lambda_2 x + \lambda_3 (x-\mu)^2 = 0\\ \end{aligned}
所以 p ( x ) = exp ( 1 + λ 1 + λ 2 x + λ 3 ( x μ ) 2 ) p(x) = \exp(-1 + \lambda_1 + \lambda_2 x + \lambda_3 (x-\mu)^2)

這裏參考了Appendix D章節的變分法內容。

1.35

p ( x ) = 1 ( 2 π σ 2 ) 1 / 2 exp { ( x μ ) 2 2 σ 2 } p(x) = \frac{1}{(2 \pi \sigma^2)^{1/2}} \exp \{ -\frac{(x - \mu)^2}{2 \sigma^2} \} ,所以有
H [ x ] = p ( x ) ln p ( x ) d x = 1 ( 2 π σ 2 ) 1 / 2 exp { ( x μ ) 2 2 σ 2 } ln 1 ( 2 π σ 2 ) 1 / 2 exp { ( x μ ) 2 2 σ 2 } d x = p ( x ) ( ln ( ( 2 π σ 2 ) 1 / 2 ) ) d x + p ( x ) ( ( x μ ) 2 2 σ 2 ) d x = 1 2 ln ( 2 π σ 2 ) + 1 2 = ln ( 2 π σ 2 ) + 1 2 \begin{aligned} \operatorname{H}[x] &= -\int p(x) \ln p(x) \mathrm{d}x \\ &= -\int \frac{1}{(2 \pi \sigma^2)^{1/2}} \exp \{ -\frac{(x - \mu)^2}{2 \sigma^2} \} \ln \frac{1}{(2 \pi \sigma^2)^{1/2}} \exp \{ -\frac{(x - \mu)^2}{2 \sigma^2} \} \mathrm{d}x \\ &= \int p(x) (\ln ((2 \pi \sigma^2)^{1/2})) \mathrm{d}x + \int p(x) (\frac{(x - \mu)^2}{2 \sigma^2}) \mathrm{d}x \\ &= \frac{1}{2} \ln (2 \pi \sigma^2) + \frac{1}{2} \\ &= \frac{\ln (2 \pi \sigma^2) + 1}{2} \end{aligned}
注意其中有一步是由方差的計算公式得來的。

1.36

根據泰勒展開式,可得
f ( x ) = f ( x 0 ) + f ( x 0 ) ( x x 0 ) + 1 2 f ( x 0 ) ( x x 0 ) 2 \begin{aligned} f(x) = f(x_0) + f'(x_0)(x-x_0) + \frac{1}{2}f''(x_0)(x-x_0)^2 \end{aligned}
由於 f ( x 0 ) > 0 f''(x_0) > 0 ,因此 1 2 f ( x 0 ) ( x x 0 ) 2 > 0 \frac{1}{2}f''(x_0)(x-x_0)^2 > 0

相關文章
相關標籤/搜索