CNN中的小tips(3)---《l1,l2正則化爲什麼可以減輕過擬合現象》

過擬合現象發生的原因: 過擬合現象:由於神經網絡的學習能力過於強大,以至於學到了訓練樣本中一些不太一般的特點,從而導致模型的泛化能力變差! 本質原因:由於監督學習問題的不適定:可以這樣理解,高數中我們通過n個方程求解n個變量,當用這n個方程求解n+1個變量時,就會求解不出來;在監督學習中,我們給定的數據(方程)遠遠少於模型空間中的變量(變量的個數)。 而且模型越複雜,越容易過擬合! 因此過擬合的發
相關文章
相關標籤/搜索