神經網絡的優化(2)----優化器、自適應學習率:Adagrad、RMSProp、Momentum、Adam

一、Adagrad        //這個優化器,帶有自適應的學習率                                                                點擊此處返回總目錄 二、RMSProp      //Adagrad的進階版,帶有更好的自適應學習率 三、Momentum    //動量。 四、Adam            //RMSProp+Mom
相關文章
相關標籤/搜索