深度學習——2.傳統神經網絡

線性迴歸 梯度下降 模型的輸出 多個目標對應多個任務,對應多組權重,對應多個輸出類別 線性迴歸的侷限 非線性激勵的考量標準 正向:對輸入的調整,[0,1] 或 [-1 , +1] 反向:梯度損失大小 常用的非線性激勵函數 Sigmoid Tanh ReLU(Rectified linear unit) Leaky ReLU 面試題:有線性迴歸網絡麼? 沒有,如上所示,如果不通過非線性激活函數,每層
相關文章
相關標籤/搜索