剛開始學習tf時,咱們從簡單的地方開始。卷積神經網絡(CNN)是由簡單的神經網絡(NN)發展而來的,所以,咱們的第一個例子,就從神經網絡開始。網絡
神經網絡沒有卷積功能,只有簡單的三層:輸入層,隱藏層和輸出層。學習
數據從輸入層輸入,在隱藏層進行加權變換,最後在輸出層進行輸出。輸出的時候,咱們能夠使用softmax迴歸,輸出屬於每一個類別的機率值。借用極客學院的圖表示以下:測試
其中,x1,x2,x3爲輸入數據,通過運算後,獲得三個數據屬於某個類別的機率值y1,y2,y3. 用簡單的公式表示以下:優化
在訓練過程當中,咱們將真實的結果和預測的結果相比(交叉熵比較法),會獲得一個殘差。公式以下:spa
y 是咱們預測的機率值, y' 是實際的值。這個殘差越小越好,咱們能夠使用梯度降低法,不停地改變W和b的值,使得殘差逐漸變小,最後收斂到最小值。這樣訓練就完成了,咱們就獲得了一個模型(W和b的最優化值)。code
完整代碼以下:blog
import tensorflow as tf import tensorflow.examples.tutorials.mnist.input_data as input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) x = tf.placeholder(tf.float32, [None, 784]) y_actual = tf.placeholder(tf.float32, shape=[None, 10]) W = tf.Variable(tf.zeros([784,10])) #初始化權值W b = tf.Variable(tf.zeros([10])) #初始化偏置項b y_predict = tf.nn.softmax(tf.matmul(x,W) + b) #加權變換並進行softmax迴歸,獲得預測機率 cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_actual*tf.log(y_predict),reduction_indies=1)) #求交叉熵 train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) #用梯度降低法使得殘差最小 correct_prediction = tf.equal(tf.argmax(y_predict,1), tf.argmax(y_actual,1)) #在測試階段,測試準確度計算 accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) #多個批次的準確度均值 init = tf.initialize_all_variables() with tf.Session() as sess: sess.run(init) for i in range(1000): #訓練階段,迭代1000次 batch_xs, batch_ys = mnist.train.next_batch(100) #按批次訓練,每批100行數據 sess.run(train_step, feed_dict={x: batch_xs, y_actual: batch_ys}) #執行訓練 if(i%100==0): #每訓練100次,測試一次 print "accuracy:",sess.run(accuracy, feed_dict={x: mnist.test.images, y_actual: mnist.test.labels})
每訓練100次,測試一次,隨着訓練次數的增長,測試精度也在增長。訓練結束後,1W行數據測試的平均精度爲91%左右,不是過高,確定沒有CNN高。input