【深度學習篇】--神經網絡中的調優二,防止過擬合

一、前述 上一篇講述了神經網絡中的調優實現,本文繼續講解。 二、L1,L2正則防止過擬合  使用L1和L2正則去限制神經網絡連接的weights權重,限制更小 1、對於一層時可以定義如下: 一種方式去使用TensorFlow做正則是加合適的正則項到損失函數,當一層的時候,可以如下定義: 2、對於多層時可以定義如下:  可是如果有很多層,上面的方式不是很方便,幸運的是,TensorFlow提供了更好
相關文章
相關標籤/搜索