CS231n_Lecture6_訓練神經網絡上(激活函數)

         在深度學習中,信號從一個神經元傳入到下一層神經元之前是通過線性疊加來計算的,而進入下一層神經元需要經過非線性的激活函數,繼續往下傳遞,如此循環下去。由於這些非線性函數的反覆疊加,才使得神經網絡有足夠的capacity來抓取複雜的特徵。        爲什麼要使用非線性激活函數? 答:如果不使用激活函數,這種情況下每一層輸出都是上一層輸入的線性函數。無論神經網絡有多少層,輸出都是輸
相關文章
相關標籤/搜索