Deep learning: prevent overfitting && speed up training

 prevent overfitting: 1. 在loss function上添加L1、L2正則項 2. Drop out 3. Data augmentation 4. early stopping 在Keras上都有對應的實現方式  speed up training 1. normalization(零均值化 + 歸一化方差),why normalization?因爲如果input 差別很
相關文章
相關標籤/搜索