視頻教程的總結和一些自行補充的內容,旨在儘量的理解其原理。html
本文持續更新地址:我的博客機器學習面試基礎知識 & 擴展-01面試
在忽略噪聲的狀況下,泛化偏差可分解爲誤差、方差兩部分。算法
---摘自《機器學習》,周志華網絡
分類器函數
Train set error | 1% | 15% | 15% | 0.5% |
---|---|---|---|---|
Dev set error | 10% | 16% | 30% | 1% |
status | high variance | high bias | high bias & high variance | low bias & low variance |
high Bias 意味着模型的分類效果很差,high Variance 意味着模型每每過擬合,不能很好的泛化。性能
咱們一般這樣利用這兩個參數調整咱們的神經網絡,其中部份內容會在本文的後面進一步探討。學習
上圖從左到右分別是欠擬合、合適的擬合和過擬合三種狀況。測試
整個訓練過程實際上是模型複雜度和過擬合之間的一個權衡,以下圖優化
如何應對過擬合?我以前的一篇譯文提到過:譯文
結合前文中提到的誤差和方差,咱們有如下經驗:
也就是:
regulation
)- 主要是L1和L2正則化Dropout
- 隨機將某些神經元的權重初始化爲零回到交叉驗證,根據切分的方法不一樣,交叉驗證分爲下面三種:
所謂的簡單,是和其餘交叉驗證方法相對而言的。首先,咱們隨機的將樣本數據分爲兩部分(好比: 70%的訓練集,30%的測試集),而後用訓練集來訓練模型,在測試集上驗證模型及參數。接着,咱們再把樣本打亂,從新選擇訓練集和測試集,繼續訓練數據和檢驗模型。最後咱們選擇損失函數評估最優的模型和參數。
又稱(S-Folder Cross Validation),和第一種方法不一樣,S折交叉驗證會把樣本數據隨機的分紅S份,每次隨機的選擇S-1份做爲訓練集,剩下的1份作測試集。當這一輪完成後,從新隨機選擇S-1份來訓練數據。若干輪(小於S)以後,選擇損失函數評估最優的模型和參數。
又稱(Leave-one-out Cross Validation),它是第二種狀況的特例,此時S等於樣本數N,這樣對於N個樣本,每次選擇N-1個樣原本訓練數據,留一個樣原本驗證模型預測的好壞。此方法主要用於樣本量很是少的狀況。
爲了得到性能良好的神經網絡,網絡定型過程當中須要進行許多關於所用設置(超參數)的決策。超參數之一是定型週期(epoch)的數量:亦即應當完整遍歷數據集多少次(一次爲一個epoch)若是epoch數量太少,網絡有可能發生欠擬合(即對於定型數據的學習不夠充分);若是epoch數量太多,則有可能發生過擬合(即網絡對定型數據中的「噪聲」而非信號擬合)。
早停法背後的原理其實不難理解:
每一個epoch結束後(或每N個epoch後):
將測試性能最優的模型做爲最終網絡模型
最優模型是在垂直虛線的時間點保存下來的模型,即處理測試集時準確率最高的模型。
其中,中止條件能夠是下面這三條
正則化 是結構風險最小化策略的實現,是在經驗風險上加一個正則化項(regularizer)或懲罰項(penalty term)
通常來講,監督學習能夠看作最小化下面的目標函數:
regulation
,字面意思是調整修正,也就是調整上圖中出現應對過擬合L0範數表示向量中全部非零元素的個數
定義:
定義:L2
範數是指向量各元素的平方和而後求平方根。咱們讓L2範數的規則項||W||2最小,可使得W的每一個元素都很小,都接近於0,但與L1範數不一樣,它不會讓它等於0,而是接近於0。
使部分神經節點w
的權重下降爲零,從而簡化網絡,將上圖中圖3中轉換爲圖1,結果是variance
下降,bias
增長。
視頻講解: 2:30
優化問題:把 w
的解限制在黃色區域內,同時使得經驗損失儘量小。
這也致使L2相對較爲穩定,L1能夠產生更多稀疏解。
Dropout是指在模型訓練時隨機讓網絡某些隱含層節點的權重不工做,不工做的那些節點能夠暫時認爲不是網絡結構的一部分,可是它的權重得保留下來(只是暫時不更新而已),由於下次樣本輸入時它可能又得工做了。
基於 CIFAR-10 dataset 的實驗
結果演示:
100代碼的簡單神經網絡代碼:pycharm
關於激活函數做用的直觀解釋:知乎回答:異或
連接:TensorFlow