先上代碼python
import tensorflow from tensorflow.examples.tutorials.mnist import input_data import matplotlib.pyplot as plt # 普通的神經網絡學習 # 學習訓練類 class Normal: weight = [] biases = [] def __init__(self): self.times = 1000 self.mnist = [] self.session = tensorflow.Session() self.xs = tensorflow.placeholder(tensorflow.float32, [None, 784]) self.ys = tensorflow.placeholder(tensorflow.float32, [None, 10]) self.save_path = 'learn/result/normal.ckpt' def run(self): self.import_data() self.train() self.save() def _setWeight(self,weight): self.weight = weight def _setBiases(self,biases): self.biases = biases def _getWeight(self): return self.weight def _getBiases(self): return self.biases # 訓練 def train(self): prediction = self.add_layer(self.xs, 784, 10, activation_function=tensorflow.nn.softmax) cross_entropy = tensorflow.reduce_mean( -tensorflow.reduce_sum( self.ys * tensorflow.log(prediction) , reduction_indices=[1]) ) train_step = tensorflow.train.GradientDescentOptimizer(0.5).minimize(cross_entropy) self.session.run(tensorflow.global_variables_initializer()) for i in range(self.times): batch_xs, batch_ys = self.mnist.train.next_batch(100) self.session.run(train_step, feed_dict={self.xs: batch_xs, self.ys: batch_ys}) if i % 50 == 0: # images 變換爲 labels,images至關於x,labels至關於y accurary = self.computer_accurary( self.mnist.test.images, self.mnist.test.labels, prediction ) # 數據導入 def import_data(self): self.mnist = input_data.read_data_sets('MNIST_data', one_hot=True) # 數據保存 def save(self): saver = tensorflow.train.Saver() path = saver.save(self.session,self.save_path) # 添加隱藏層 def add_layer(self,inputs,input_size,output_size,activation_function=None): weight = tensorflow.Variable(tensorflow.random_normal([input_size,output_size]),dtype=tensorflow.float32,name='weight') biases = tensorflow.Variable(tensorflow.zeros([1,output_size]) + 0.1,dtype=tensorflow.float32,name='biases') Wx_plus_b = tensorflow.matmul(inputs,weight) + biases self._setBiases(biases) self._setWeight(weight) if activation_function is None: outputs = Wx_plus_b else: outputs = activation_function(Wx_plus_b,) return outputs # 計算結果數據與實際數據的正確率 def computer_accurary(self,x_data,y_data,tf_prediction): prediction = self.session.run(tf_prediction,feed_dict={self.xs:x_data,self.ys:y_data}) # 返回兩個矩陣中最大值的索引號位置,而後進行相應位置的值大小比較並在此位置設置爲True/False correct_predition = tensorflow.equal(tensorflow.argmax(prediction,1),tensorflow.argmax(y_data,1)) # 進行數據格式轉換,而後進行降維求平均值 accurary = tensorflow.reduce_mean(tensorflow.cast(correct_predition,tensorflow.float32)) result = self.session.run(accurary,feed_dict={self.xs:x_data,self.ys:y_data}) return result # 識別類 class NormalRead(Normal): input_size = 784 output_size = 10 def run(self): self.import_data() self.getSaver() origin_input = self._getInput() output = self.recognize(origin_input) self._showImage(origin_input) self._showOutput(output) pass # 顯示識別結果 def _showOutput(self,output): number = output.index(1) print('識別到的數字:',number) # 顯示被識別圖片 def _showImage(self,origin_input): data = [] tmp = [] i = 1 # 原數據轉換爲可顯示的矩陣 for v in origin_input[0]: if i %28 == 0: tmp.append(v) data.append(tmp) tmp = [] else: tmp.append(v) i += 1 plt.figure() plt.imshow(data, cmap='binary') # 黑白顯示 plt.show() def _setBiases(self,biases): self.biases = biases pass def _setWeight(self,weight): self.weight = weight pass def _getBiases(self): return self.biases def _getWeight(self): return self.weight # 獲取訓練模型 def getSaver(self): weight = tensorflow.Variable(tensorflow.random_normal([self.input_size, self.output_size]), dtype=tensorflow.float32,name='weight') biases = tensorflow.Variable(tensorflow.zeros([1, self.output_size]) + 0.1, dtype=tensorflow.float32, name='biases') saver = tensorflow.train.Saver() saver.restore(self.session,self.save_path) self._setWeight(weight) self._setBiases(biases) def recognize(self,origin_input): input = tensorflow.placeholder(tensorflow.float32,[None,784]) weight = self._getWeight() biases = self._getBiases() result = tensorflow.matmul(input,weight) + biases resultSof = tensorflow.nn.softmax(result,) # 把結果集使用softmax進行激勵 resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結果集以sigmoid函數進行激勵,用於後續分類 output = self.session.run(resultSig,{input:origin_input}) output = output[0] # 對識別結果進行分類處理 output_tmp = [] for item in output: if item < 0.6: output_tmp.append(0) else : output_tmp.append(1) return output_tmp def _getInput(self): inputs, y = self.mnist.train.next_batch(100); return [inputs[50]]
以上是程序,整個程序基於TensorFlow來實現的,具體的TensorFlow安裝我就不說了。
整個訓練過程不作多說,我發現網上關於訓練的教程不少,可是訓練結果的教程不多。segmentfault
整個程序裏,經過tensorflow.train.Saver()
的save
進行訓練結果模型進行存儲,而後再用tensorflow.train.Saver()
的restore
進行模型恢復而後取到訓練好的weight和baises。數組
這裏要注意的一個地方是由於一次性隨機取出100張手寫圖片進行批量訓練的,我在取的時候其實也是批量隨機取100張,可是我傳入識別的是一張,經過如下這段程序:網絡
def _getInput(self): inputs, y = self.mnist.train.next_batch(100); return [inputs[50]]
注意一下return這裏的數據結構,實際上是取這批量的第50張,實際上這段程序寫成:session
def _getInput(self): inputs, y = self.mnist.train.next_batch(1); return [inputs[0]]
會更好。
由於識別的時候是須要用到訓練的隱藏層來進行的,因此在此我雖然識別的是一張圖片,可是我必需要傳入一個批量數據的這樣一個結構。數據結構
而後再識別的地方,我使用了兩個激勵函數:app
resultSof = tensorflow.nn.softmax(result,) # 把結果集使用softmax進行激勵 resultSig = tensorflow.nn.sigmoid(resultSof,) # 把結果集以sigmoid函數進行激勵,用於後續分類
這裏的話,第一個softmax激勵後的數據我發現獲得的是以e爲底的指數形式,轉換成普通的浮點數來看,不是很清楚究竟是什麼,那麼我在作識別數字判斷的時候就不方便,因此再經過了一次sigmoid的激勵。dom
後續我經過一個循環判斷進行一次實際上的分類,這個緣由首先要說到識別結果形式:函數
[0,0,0,0,0,0,0,0,1,0]
像以上這個數據,表示的是8,也就是說,數組下表第幾位爲1就表示是幾,如0的表示:學習
[1,0,0,0,0,0,0,0,0,0]
而sigmoid函數在這個地方其實就是對每一個位置的數據進行了分類,我發現若是分類值小於0.52這樣的數據其實表明的是否,也就是說此位置的值對應的是0,大於0.52應該對應的是真,也就是1;而我在程序裏取的是0.6爲界限作判斷。
實際上,這個界限值應該是在神經網絡訓練的時候取的,而不是看識別結果來進行憑感受取的(雖然訓練的時候的參數也是憑感受取的)
這篇文章是我根據我的的一些理解來寫的,後續若是發現有錯誤,我會在新文章說出來,但這篇文章不作保留,方便後續檢查思考記錄的時候知道到底怎麼踩坑的。
如下是我上次寫的sigmoid函數的文章:
https://segmentfault.com/a/11...
關於其餘激勵函數,能夠網上找資料進行了解,不少基礎性的數學知識,放到一些比較具體的應用,會顯得很是的有意思。