神經網絡與深度學習學習筆記:正向傳播與反向傳播(未完)

反向傳播 推導反向傳播的最終結果: 正好在推這個,先寫反向傳播吧。 以前文的兩層神經網絡爲例,反向傳播的起點爲損失函數(也是正向傳播的終點): z[i]a[i]J(w,b)=w[i]∗a[i−1]+b[i]=g[i](z[i])=1m∑i=1mL(a[l]i,y) 損失函數: L(a[2],y)=−ylna[2]−(1−y)ln(1−a[2]) 計算(此處假設 g[2](x)=σ(x) ,而 g[
相關文章
相關標籤/搜索