PReLU——Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification

1. 摘要 在 R e L U ReLU ReLU 的基礎上作者提出了 P R e L U PReLU PReLU,在幾乎沒有增加額外參數的前提下既可以提升模型的擬合能力,又能減小過擬合風險。 針對 R e L U / P R e L U ReLU/PReLU ReLU/PReLU 的矯正非線性,作者設計了一個魯棒的的參數初始化方法。 2. 介紹 在過去幾年,隨着更強大網絡模型的構建和有效防止過擬
相關文章
相關標籤/搜索