(LXTML筆記)Neural Network

神經網絡的話,向前計算是容易地,基本上就是矩陣的乘法加上一點點激活函數的變換,所以這裏不做筆記。 Backprop on NNet 下面對學習過程做一點筆記,backprop實際上就是偏導的鏈式法則 我們考慮的是平方誤差,即 對於輸出層,如下圖綠框所示,我們對 en e n 關於第 L L 層的權重做偏導 對於中間的隱含層,如紅色框所示做偏導,有暫時不知道 ∂en∂s(l)j ∂ e n ∂ s
相關文章
相關標籤/搜索