深度學習—激活函數詳解(Sigmoid、tanh、ReLU、ReLU6及變體P-R-Leaky、ELU、SELU、Swish、Mish、Maxout、hard-sigmoid、hard-swish)

非線性激活函數詳解 飽和激活函數 Sigmoid函數 tanh函數 hard-Sigmoid函數 非飽和激活函數 Relu(修正線性單元): Relu6(抑制其最大值): ELU(指數線性單元) SELU Leaky-Relu / R-Relu P-Relu(參數化修正線性單元) R-Relu(隨機糾正線性單元) Swish hard-Swish Mish Maxout 關於激活函數統一說明 參考
相關文章
相關標籤/搜索