神經網絡優化

如下筆記根據mooc TensorFlow筆記整理而得,自己將其中代碼重新實現了一遍,加固記憶 一、激活函數與交叉熵 神經元模型:用數學公式表示爲: f(∑ixiwi+b),,f 爲激活函數。神經網絡是以神經元爲基本單元構成的。  激活函數:引入非線性激活因素,提高模型的表達力。 常用的激活函數有 relu、sigmoid、tanh 等。  ①激活函數 relu: 在 Tensorflow 中,用
相關文章
相關標籤/搜索