深度學習(一):激活函數、反向傳播和學習率

一、激活方法(Activation Functions) 給定一個或者一組輸入的節點的輸出 1.ReLU 2. Sigmoid/Logistic 3.Binary 4.Tanh 5.Softplus 6.softmax 7.Maxout 8.Leaky ReLU, PReLU, RReLU, ELU, SELU, and others. 二、反向傳播(Backpropagation) 1.這是一種
相關文章
相關標籤/搜索