深度學習裏常用激活函數,目標函數

激活函數 線性變換的複合還是線性變換,但很多時候只做線性變換,並不能很好得解決分類問題,需要引入非線性激活函數 (0)階躍激活函數 (1)sigmoid激活函數,tanh激活函數 (2)ReLU激活函數,Leaky-ReLU激活函數 (3)softmax激活函數 常用於分類問題的輸出層 softmax(xi)=exi∑j=1nexj 目標函數 目標函數也稱爲損失函數、代價函數,是深度學習裏用於訓練
相關文章
相關標籤/搜索