TensorFlow小程序(四):MNIST數字識別(神經網絡的優化)

從不同的方面對神經網絡進行簡單優化 1.代價函數 上一篇中我們用的是簡單的二次函數(均方誤差)作爲代價函數 loss=tf.reduce_mean(tf.square(y-prediction)) #求預測的平均誤差 這一節中我們進行了改進,採用交叉熵作爲代價函數。交叉熵刻畫了兩個概率分佈之間的距離,常用在分類問題中使用。交叉熵一般會與softmax迴歸一起使用 softmax迴歸本身可以作爲一個
相關文章
相關標籤/搜索