機器學習筆記(4)--激活函數Activate Function

主題:激活函數 Sigmoid、tanh、relu比較 Table of Contents 激活函數 sigmoid函數 tanh函數 relu函數 激活函數 激活函數(activation functions)的目標是,將神經網絡非線性化。 激活函數是連續的(continuous)且可導的(differential)。 激活函數的兩個性質: 連續的:當輸入值發生較小的改變時,輸出值也發生較小的改
相關文章
相關標籤/搜索