【NLP實踐-Task5 神經網絡基礎】深度學習基礎

目錄 前饋神經網絡 反向傳播 輸入/隱藏/輸出層 隱藏單元(激活函數 ) ReLU(修正線性單元) Sigmoid/ tanh Softmax 激活函數對比 sigmoid tanh relu leaky relu 激活函數選取準則 損失函數 損失函數的非凸性 常用的損失函數 0-1損失 絕對值損失 log對數損失函數 平方損失函數 指數損失函數 Hinge損失函數 正則化 參數範數懲罰 L2正則
相關文章
相關標籤/搜索