神經網絡學習筆記(3):Keras

Keras 中的其他激活函數: model.add(Activation('sigmoid')) model.add(Activation('softmax')) model.add(Activation('relu')) model.add(Activation('tanh'))   梯度下降->隨機梯度下降: 如果每次都用所有的數據下降一個步長,很費內存 如果數據分佈合理,每次使用一部分數據就
相關文章
相關標籤/搜索