可學習理論針對於監督學習,從問題空間$X\times Y$中採樣,輸出一個預測函數$h:X\to Y$,來斷定X與Y之間的對應關係。算法
主要難點在於:函數
所以學習問題定義爲一個三元組$(S,H,L)$。未知數據分佈$(x,y)\sim D$的狀況下,可學習理論給出了獲得預測函數集合中最優函數,須要的樣本複雜度。學習
定義:$\exists m_H\exists A,\forall\epsilon\forall\delta\forall D[\exists h\in H(L_{D,f}(h)=0)\wedge m\geqslant m_H(\epsilon,\delta)\Rightarrow P(L_{D,f}(A(S)\leqslant\epsilon)\geqslant 1-\delta]$it
任一有限假設類H爲PAC可學習,採樣複雜度知足:$m_H(\epsilon,\delta)\leqslant\left \lceil \frac{\log(|H|)}{\epsilon\delta} \right \rceil$變量
$\gamma-$弱可學習:相似與 PAC可學習,但不要求$\epsilon=1/2-\gamma$任意小,比隨機猜想好一個$\gamma$便可,以此換取高效算法。lambda
定義:$\exists m_H\exists A,\forall\epsilon\forall\delta\forall D,m\geqslant m_H(\epsilon,\delta)\Rightarrow P(L_{D}(A(S))\leqslant\min_{h'\in H}L_D(h')+\epsilon)\geqslant 1-\delta$gc
定理:[沒有免費的午飯]
對實例空間 X上0-1損失的二分任務,令 A 表示任意的學習算法。樣本大小 m 表示小於|X|/2的任意數,則在$X\times\{0,1\}$上存在一個分佈 D,使得:存在一個函數$f:X\to\{0,1\}$知足$L_D(f)=0$;在樣本集$S\sim D^m$上,以致少$\frac{1}{7}$的機率知足 $L_D(A(S))\geqslant \frac{1}{8}$。每一個學習器,都存在一個任務使其失敗。im
VC維:H 能夠打散的最大集合的大小。經驗
一致收斂(H):$$\exists m_H\exists A,\forall\epsilon\forall\delta\forall D,m\geqslant m_H(\epsilon,\delta)\Rightarrow P(L_{D}(A(S))\leqslant\min_{h'\in H}L_D(h')+\epsilon)\geqslant 1-\delta$$nw
定理:二分類問題的等價性:一致收斂$\iff$不可知PAC可學習$\iff$VCdim有限
樣本複雜度:$m_H:(0,1)\times(0,1)\times H\to N$
定義:$\exists m_H\exists A,\forall\epsilon\forall\delta\forall D\forall h,m\geqslant m_H(\epsilon,\delta,h),S\sim D^m\Rightarrow P(L_D(A(S))\leqslant L_D(h)+\epsilon)\geqslant 1-\delta$
定理:二分類問題的假設類 H是不一致可學習$\iff$H 爲不可知PAC可學習的可數並
定理:[結構風險最小化SRM]設$$S\sim D^m,\sum_nw(n)\leqslant 1, H=\bigcup_nH_n,\epsilon_n(m,\delta)=min\{\epsilon\in(0,1):m_{H_n}(\epsilon,\delta)\leqslant m\}$$ $$[\forall\delta\forall n\forall h\in H_n,P(|L_D(h)-L_S(h)|\leqslant\epsilon_n(m,w(n)\delta))\geqslant 1-\delta]\Rightarrow [\forall\delta\forall D\forall h\in H, L_D(h)\leqslant L_S(h)+\min_{n:h\in H}\epsilon_n(m,w(n)\delta) ]$$
一致收斂$(H,2^D)$:$$\exists m_H\exists A,\forall\epsilon\forall\delta\forall D\forall h,m\geqslant m_H(\epsilon,\delta,h,D),S\sim D^m\Rightarrow P(L_D(A(S))\leqslant L_D(h)+\epsilon)\geqslant 1-\delta$$
凸學習問題:假設類$H$爲凸集,損失函數$L$對樣本$s$爲凸函數,則學習問題$(H,L,S)$爲凸的。
$\rho-$利普希茨性:$f:R^d\to R^k,\exists \rho\forall w_1\forall w_2, \left \| f(w_1)-f(w_2) \right \|\leqslant \rho \left \| w_1-w_2 \right \| $
光滑性:$\bigtriangledown f$具備$\rho-$利普希茨性
假設類有界:$\exists B\forall h\in H \left \| h \right \|\leqslant B$
學習問題$(H,L,S)$爲凸利普希茨有界:$(H,L,S)$爲凸$\wedge H$有界$\wedge L$爲利普希茨
學習問題$(H,L,S)$爲凸光滑有界:$(H,L,S)$爲凸$\wedge H$有界$\wedge L$爲非負、光滑
正則損失最小化$RLM:\arg\min_h(L_D(h)+R(h)),R:R^d\to R$
Tikhonov 正則化:$R(h)=\lambda \left \| h \right \|^2$
換一穩定:$S^{(i)})$替換了S 的第 i 個樣本,$\epsilon:N\to R$是一個單調遞減函數。一個學習算法 A 是在比率$\epsilon(m)$下的換一穩定,若是$$E_{(S,z')\sim D^{m+1},i\sim U(m)}[L(A(S^{(i)}),z_i)-L(A(S),z_i)]\leqslant \epsilon(m)$$
$\lambda-$強凸函數:$f(au+(1-a)v)\leqslant af(u)+(1-a)f(v)-\frac{\lambda}{2}a(1-a)\left \| u-v\right \|^2$
定理:學習問題$(H,L,S)$爲凸利普希茨,那麼Tikhonov 正則化的 RLM 是比率爲$\frac{2\rho^2}{\lambda m}$的換一穩定。
定理:學習問題$(H,L,S)$爲凸光滑,$\exists C\forall s(L(0,s)\leqslant C)$,那麼Tikhonov 正則化的 RLM 是比率爲$\frac{48\rho C}{\lambda m}$的換一穩定。
定理:對於梯度降低法GD,$w^{(1)}=0, w^{(t+1)}=w^{(t)}-\eta \nu_t$,有$\sum_t <w^{(t)}-w^*,\nu_t>\leqslant \frac{\left \| w^* \right \|^2}{2\eta}+\frac{\eta}{2}\sum_t\left \| \nu_t \right \|^2$
次梯度:f是凸函數$\iff \forall w\exists v\forall u,f(u)-f(w)\geqslant <u-w,v>$,v稱爲f在w處的次梯度,其集合記做$\partial f(w)$。
定理:A爲開凸集,f爲A上凸函數,f爲凸利普希茨$\iff \forall w\in A\forall v\in \partial f(w),\left \| v \right \|\leqslant\rho$
隨機梯度降低法SGD,$w^{(1)}=0, w^{(t+1)}=w^{(t)}-\eta \nu_t, E[\nu_t|w^{(t)}]\in\partial f(w)$,f爲凸函數,h有界B,$\nu$有界$\rho$,則$E[f(\bar{w})]-f(w^*)\leqslant\frac{B\rho}{\sqrt T}$