前饋神經網絡公式推導

1.神經網絡結構 2.神經網絡表達力與過擬合 3.傳遞函數 爲什麼Relu通常比上述兩種**函數強? 4.損失函數 我們來看看交叉熵的本質,不需要了解的童靴可以略過~ S是對y softmax之後的:softmax公式 損失函數J以及對y的求導(在反向傳播中會有這步) 5.梯度下降法 6.前饋神經網絡前向傳播 7.反向傳播 反向傳播先舉了一個例子,進而得到反向傳播公式,這個公式一定要背的滾瓜爛熟!
相關文章
相關標籤/搜索