深度學習基礎篇之邏輯迴歸擬合二維數據

  從今天起,我會在這裏記錄一下學習深度學習所留下的足跡,目的也很簡單,手頭有近3w個已經標記好正確值得驗證碼,想要從頭訓練出一個能夠使用的模型,python

雖然我也知道網上的相關模型和demo不少,可是仍是很是但願本身能夠親手搞一個能用的出來,學習書籍主要是:李金洪老師的《深度學習之Tensorflow 入門、原理與進階實戰》。算法

另外,在我將驗證碼識別模型訓練出來後也會將源代碼、模型,以及近3w個驗證碼徹底開源出來。共勉之。微信

  

 1 #!/usr/bin/env python
 2 # -*- coding: utf-8 -*-
 3 # @Time    : 2019/9/23 21:27
 4 # @Author  : SongSa
 5 # @Desc    : 
 6 # @File    : 擬合二維數據.py
 7 # @Software: PyCharm
 8 
 9 import tensorflow as tf
10 import numpy as np
11 import matplotlib.pyplot as plt
12 
13 """
14 深度學習分爲4個步驟:
15     準備數據
16     搭建模型
17     迭代訓練
18     使用模型
19 """
20 
21 ########準備數據########
22 train_X = np.linspace(-1, 1, 100)
23 train_Y = 2 * train_X + np.random.randn(100) * 0.3  # y = 2x  可是加入了噪聲
24 plt.plot(train_X, train_Y, 'ro', label='original data')  # 顯示模擬的數據點
25 plt.legend()  # 擁有顯示圖例label
26 plt.show()
27 
28 
29 plotdata = {"batchsize":[], "loss":[]}
30 def moving_average(a, w=10):
31     if len(a) < w:
32         return a[:]
33     return [val if idx < w else sum(a[(idx-w):idx])/w for idx, val in enumerate(a)]
34 
35 
36 ########搭建模型########
37 # 模型分爲兩個方向:正向和反向
38 # 建立模型
39 X = tf.placeholder("float")  # 佔位符
40 Y = tf.placeholder("float")
41 # 模型參數
42 W = tf.Variable(tf.random_normal([1]), name="weight")  # W被初始化爲[-1, 1]的隨機數,形狀爲一維的數字
43 b = tf.Variable(tf.zeros([1]), name="bias")  # b的初始化爲0
44 # 前向結構
45 z = tf.multiply(X, W) + b  # tf.multiply()是相乘的函數  z = X * W + b
46 
47 # 反向搭建模型
48 # 神經網絡在訓練時數據流向有兩個方向,先經過正向生成一個值,而後觀察其與真實值的差距,再經過反向過程將裏邊的參數進行調整,
49 # 接着在生成正向預測值來與真實值進行比對,如此循環,知道將參數調整爲合適值爲止,反向傳播會引入一些算法來實現對參數的正確調整。
50 cost = tf.reduce_mean(tf.square(Y - z))  # cost等於生成值與真實值的平方差
51 # tf.reduce_mean()  用於計算張量沿着指定軸的平均值
52 # tf.square() 用於計算Y-z的平方
53 learning_rate = 0.01  # 學習率 (值越大代表調整的速度越大,但不精準,反之亦然)
54 optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)  # 封裝好的梯度降低算法
55 
56 
57 ########迭代訓練########
58 # Tensorflow中的任務是經過session來進行的
59 init = tf.global_variables_initializer()  # 初始化全部變量
60 #定義參數
61 training_epochs = 20
62 display_stop = 2
63 # 啓動session
64 with tf.Session() as sess:
65     sess.run(init)
66     plotdata = {"batchsize":[], "loss":[]}  # 存放批次值和損失值
67     for epoch in range(training_epochs):
68         for (x, y) in zip(train_X, train_Y):
69             sess.run(optimizer, feed_dict={X:x, Y:y})
70 
71         # 顯示訓練中的詳細信息
72         if epoch % display_stop == 0:
73             loss = sess.run(cost, feed_dict={X:train_X, Y:train_Y})
74             print("Epoch:", epoch+1, "cost=", loss, "W=", sess.run(W), "b=", sess.run(b))
75             if not (loss == "NA"):
76                 plotdata['batchsize'].append(epoch)
77                 plotdata["loss"].append(loss)
78 
79     print("Finished!")
80     print("cost=", sess.run(cost, feed_dict={X:train_X, Y:train_Y}), "W=", sess.run(W), "b=", sess.run(b))
81 
82     # 訓練模型可視化
83     plt.plot(train_X, train_Y, 'ro', label="Original data")
84     plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label="Fittedline")
85     plt.legend()
86     plt.show()
87 
88     plotdata['avgloss'] = moving_average(plotdata["loss"])
89     plt.figure(1)
90     plt.subplot(211)
91     plt.plot(plotdata["batchsize"], plotdata['avgloss'], 'b--')
92     plt.ylabel("Loss")
93     plt.title("Minibatch run vs.  Training loss")
94     plt.show()
95 
96 
97 ########使用模型########
98     print('使用模型:\n\n')
99     print("x=0.2, z=", sess.run(z, feed_dict={X:0.2}))

最後,打個廣告: 想了解更多Python關於爬蟲、數據分析的內容,獲取大量爬蟲爬取到的源數據,歡迎你們關注個人微信公衆號:悟道Python網絡

相關文章
相關標籤/搜索