【Deep Learning】筆記:Understanding the difficulty of training deep feedforward neural networks

這幾天讀了這篇論文,在這裏將大致內容寫在這裏。 Abstract 介紹這篇論文的主要內容就是嘗試更好的理解爲什麼使用「標準隨機初始化」來計算使用標準梯度下降的網絡效果通常來講都不是很好。 首先研究了不同的非線性激活函數的影響,發現 sigmoid 函數它的均值會導致在隱層中很容易到達函數的飽和區域,因此sigmoid 激活函數在隨機初始化的深度網絡中並不合適。但同時驚喜的發現,處於飽和的神經元能夠
相關文章
相關標籤/搜索