1.3Tensorflow框架之反向傳播

反向傳播:訓練參數模型,在全部參數上梯度降低,使NN模型在訓練數據上的損失函數最小 損失函數loss:預測值(y)與已知答案(y_)的差距 如何獲得損失函數loss,咱們能夠用均方偏差MSE去實現,代碼以下python loss=tf.reduce_mean(tf.square(y-y_)) 對於反向傳播的訓練方法:咱們以減少loss值做爲優化目標web #學習率能夠爲較小的值,學習率決定了參數每
相關文章
相關標籤/搜索