深度學習之池化與激活函數

保留圖像最顯著的特徵,不會影響,且可以減少參數(利用了圖像數據的聯繫) 池化層無參數,相當於一種算法 由於卷積層(如F=64)輸出的通道數會增加,爲了數據變小,所以加個池化層降低數據,但是通道數和池化層一樣 API 激活函數 前四個是激活函數特點 最後一個前三用的最多 和線性迴歸時知識相同 會出現幾個如圖缺點,當數據很大時,第一個所得值都相似,第二個趨於零時,對於反向學習中梯度下降求導是不科學的。
相關文章
相關標籤/搜索