①BP神經網絡:網絡
參考:李宏毅 slides DNN backprop.pdfide
②優化:函數
1. mini-batch: 小批量梯度降低優化
2. 設置 validuation data:調節超參數orm
3. activation function: Relu, leakly Relu, PRelu,maxoutio
4. loss function:softmax + 交叉熵代價函數 ——> 分類問題function
二次代價函數 + 正則項 ——> 迴歸問題pdf
5. normlization(輸入/特徵歸一化)lambda
6. 規範化:加入正則化項(L1,L2) ——> 尋找小的權重與最小化原始代價函數的折中神經網絡
7. 權重初始化:W ——> 均值:0,方差:1/更號n
b ——> 均值:0,方差:1
8. 梯度優化:learning rate vallina GD
Adagrad
動量Momentum ,三者見 Deep More (v2).pdf
9. 增長訓練數據集(旋轉15 °,扭曲,清除背景噪音等)
10. early stopping (提前終止)
11. 權重衰減:w(t+1) <—— (1-tau * lambda) w(t) - tau * ▽C(w)
12. Dropout(訓練階段):如同訓練大量不一樣網絡的平均。