DeepLearning 吳恩達深度學習第二課筆記

改善深層神經網絡 偏差、方差 減少偏差     更大的網絡       減少方差      更多數據      正則化 正則化 (Regularization) L2正則 ||w||^2,w是高維參數,可以加b,也可以不加   正則化權重lambda過大時,w很小,wx+b接近0,經過激活函數(sigmod/tanh)後,神經網絡的效果接近LR   inverted dropout(反向隨機失活)
相關文章
相關標籤/搜索