Surpassing Human-Level Performance on ImageNet Classification ImageNet Classification

在該文章的兩大創新點:一個是PReLU,一個是權值初始化的方法。下面我們分別一一來看。     PReLU(paramter ReLU) 所謂的PRelu,即在 ReLU激活函數的基礎上加入了一個參數,看一個圖就明白了: 右邊的圖上多了一個參數吧,在負半軸上不再爲0,而是一個可以學習的斜率。  很容易明白。實驗結果顯示該方法可以提高識別率。   權值初始化的方法:   對於文中的權值初始化問題:主
相關文章
相關標籤/搜索