[深度學習]訓練神經網路——深度調參

文章目錄 激活函數使用 sigmoid-tanh-ReLU( ReLU,LeakyReLU,ELU ) - MaxOut<類似relu以及詭異華中參數學習.> 建議 數據預處理(Data Preprocessing) 權重初始化 權重初始化研究——所有層激活輸出,隨着層數越深,激活數值越趨向於零 tanh() 和 ReLU() 激活權重初始化方法<相應的論文給出了方法> 更多適合的權重初始化研究論
相關文章
相關標籤/搜索