卷積神經網絡04(反向傳播)

計算圖過程 多隱藏層的時候,就相當於對前一層的結果進行 可以看出其實就是對每一層的疊加,這裏可能有人會問,那是不是所有的都一樣呢? 直接化簡不久OK了嘛?其實不然,如果化簡了,那還弄這些有啥意義了呢? 因此需要進行一個非線性的函數,加入到每一層。 加入到激活函數,非線性函數sigmoid,relu等
相關文章
相關標籤/搜索