minibatch

轉自:https://testerhome.com/topics/10877 回顧 之前我們講到了一些在訓練模型的時候用到的超參數,例如上一次說的L2 正則, 在過擬合的場景中增加L2的值有助於減小網絡的複雜度。 還有諸如學習率, 在梯度下降中,每一次迭代的下降的步長是學習率乘以成本函數對w的導數。所以如果我們想讓算法訓練的快一點,調高學習率可以有效的減少迭代次數。 諸如此類的還有迭代次數,激活函
相關文章
相關標籤/搜索