4.神經網絡與深度學習(三)—BP算法

引言: 在上節課中,我們知道梯度下降算法的核心是要重複對w,b求偏導數,這樣我們就能夠讓代價函數一直減小,最後讓實際輸出值儘量擬合預計輸出值,那麼我們怎麼去求w和b的偏導數呢?這節課,我們就來講一下。 1)基本規則 既然我們想求出每個位置相應的w和b,我們就需要先將每個位置的w和b清晰的表示出來。請看下圖: 這裏你可能會奇怪,爲什麼下標先寫2,再寫4呢?按照常理來說,第二層的第四個神經元應該放在前
相關文章
相關標籤/搜索