deep learning tips

dropout是爲了防止過擬合,實在testing data上面效果不好時用的,而training data效果不好的時候不會考慮這個方法。 vanishing gradient problem和 exploding gradient:梯度消失和梯度爆炸問題,可以參考此篇博客。 Regularization: L2: 不考慮bias是因爲我們加入正則是爲了讓我們的function更平滑,而bias
相關文章
相關標籤/搜索