深度學習筆記——理論與推導之DNN(三)

DNN 目錄 激勵函數(ReLU以及ReLU的變形,梯度消失問題) 成本函數 數據處理 優化 一般化 激勵函數: Rectified Linear Unit(ReLU) 選擇Relu的原因: 計算速度快 生物原因 類似於具有不同偏差的無限個sigmoid 可以解決梯度消失問題 sigmoid的問題(梯度消失問題): sigmoid function的微分函數是藍色的線,我們可以發現,藍線上的所有值
相關文章
相關標籤/搜索