ReLU——Deep Sparse Rectifier Neural Networks

1. 摘要 ReLU 相比 Tanh 能產生相同或者更好的性能,而且能產生真零的稀疏表示,非常適合自然就稀疏的數據。 採用 ReLU 後,在大量的有標籤數據下,有沒有無監督預訓練模型取得的最好效果是一樣的,這可以被看做是訓練深層有監督網絡的一個新的里程碑。 2. 背景 2.1. 神經元科學的觀察 對腦能量消耗的研究表明,神經元以稀疏和分佈的方式編碼信息,同時活躍的神經元的百分比估計在 1% 到 4
相關文章
相關標籤/搜索