tensorflow學習筆記四:mnist實例--用簡單的神經網絡來訓練和測試

剛開始學習tf時,咱們從簡單的地方開始。卷積神經網絡(CNN)是由簡單的神經網絡(NN)發展而來的,所以,咱們的第一個例子,就從神經網絡開始。網絡

神經網絡沒有卷積功能,只有簡單的三層:輸入層,隱藏層和輸出層。學習

數據從輸入層輸入,在隱藏層進行加權變換,最後在輸出層進行輸出。輸出的時候,咱們能夠使用softmax迴歸,輸出屬於每一個類別的機率值。借用極客學院的圖表示以下:測試

 

其中,x1,x2,x3爲輸入數據,通過運算後,獲得三個數據屬於某個類別的機率值y1,y2,y3. 用簡單的公式表示以下:優化

在訓練過程當中,咱們將真實的結果和預測的結果相比(交叉熵比較法),會獲得一個殘差。公式以下:spa

y 是咱們預測的機率值, y' 是實際的值。這個殘差越小越好,咱們能夠使用梯度降低法,不停地改變W和b的值,使得殘差逐漸變小,最後收斂到最小值。這樣訓練就完成了,咱們就獲得了一個模型(W和b的最優化值)。code

完整代碼以下:blog

import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
x = tf.placeholder(tf.float32, [None, 784])
y_actual = tf.placeholder(tf.float32, shape=[None, 10])
W = tf.Variable(tf.zeros([784,10]))        #初始化權值W
b = tf.Variable(tf.zeros([10]))            #初始化偏置項b
y_predict = tf.nn.softmax(tf.matmul(x,W) + b)     #加權變換並進行softmax迴歸,獲得預測機率
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_actual*tf.log(y_predict),reduction_indies=1))   #求交叉熵
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)   #用梯度降低法使得殘差最小

correct_prediction = tf.equal(tf.argmax(y_predict,1), tf.argmax(y_actual,1))   #在測試階段,測試準確度計算
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))                #多個批次的準確度均值

init = tf.initialize_all_variables()
with tf.Session() as sess:
    sess.run(init)
    for i in range(1000):               #訓練階段,迭代1000次
        batch_xs, batch_ys = mnist.train.next_batch(100)           #按批次訓練,每批100行數據
        sess.run(train_step, feed_dict={x: batch_xs, y_actual: batch_ys})   #執行訓練
        if(i%100==0):                  #每訓練100次,測試一次
            print "accuracy:",sess.run(accuracy, feed_dict={x: mnist.test.images, y_actual: mnist.test.labels})

每訓練100次,測試一次,隨着訓練次數的增長,測試精度也在增長。訓練結束後,1W行數據測試的平均精度爲91%左右,不是過高,確定沒有CNN高。input

相關文章
相關標籤/搜索