深度學習的57個名詞

一、激活函數(Activation Function) 爲了讓神經網絡能夠學習複雜的決策邊界(decision boundary),我們在其一些層應用一個非線性激活函數。常用的函數有sigmoid、tanh、ReLU(Rectified Linear Unit 線性修正單元)和以及這些函數的變體。 二、Adadelta Adadelta 是基於梯度下降的學習算法,可以隨時間調整每個參數的學習率,它
相關文章
相關標籤/搜索