《python深度學習》第二章 神經網絡的數學基礎

from tensorflow.keras.datasets import mnist# keras做爲tf2.0高階api 如此食用
複製代碼
  • train_images 和 train_labels 組成了訓練集(training set)。 模型將從這些數據中進行學習。而後在測試集(test set,即 test_images 和 test_labels)上對模型進行測試。 圖像被編碼爲 Numpy 數組,而標籤是數字數組,取值範圍爲 0~9。圖像和標籤一一對應。
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
複製代碼
  • 咱們來看一下訓練數據:
print(train_images.shape)
print(len(train_labels))
print(train_labels)
複製代碼
(60000, 28, 28)
60000
[5 0 4 ... 5 6 8]
複製代碼
  • 首先,將訓練數據(train_images 和 train_labels)輸入神經網絡; 其次,網絡學習將圖像和標籤關聯在一塊兒;最後,網絡對 test_images 生成預測, 而咱們將驗證這些預測與 test_labels 中的標籤是否匹配。
from tensorflow.keras import models
from tensorflow.keras import layers# layers層,一種數據處理模塊,能夠當作數據過濾器,過濾出更有用的數據
複製代碼
  • 層從輸入數據中提取表示——咱們指望這種表示有助於解決手頭的問題。 大多數深度學習都是將簡單的層連接起來,從而實現漸進式 的數據蒸餾(data distillation)。 深度學習模型就像是數據處理的篩子,包含一系列愈來愈精細的數據過濾器(即層)。
network = models.Sequential()
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,))) 
network.add(layers.Dense(10, activation='softmax'))
複製代碼
  • 本例中的網絡包含 2 個 Dense 層,它們是密集鏈接(也叫全鏈接)的神經層。 第二層(也 是最後一層)是一個 10 路 softmax 層,它將返回一個由 10 個機率值(總和爲 1)組成的數組。 每一個機率值表示當前數字圖像屬於 10 個數字類別中某一個的機率。
  1. 損失函數(loss function):網絡如何衡量在訓練數據上的性能,即網絡如何朝着正確的 方向前進。
  2. 優化器(optimizer):基於訓練數據和損失函數來更新網絡的機制。
  3. 在訓練和測試過程當中須要監控的指標(metric):本例只關心精度,即正確分類的圖像所 佔的比例。
network.compile(optimizer='rmsprop',loss='categorical_crossentropy', metrics=['accuracy'])
複製代碼
train_images = train_images.reshape((60000, 28 * 28)) 
train_images = train_images.astype('float32') / 255
test_images = test_images.reshape((10000, 28 * 28))
test_images = test_images.astype('float32') / 255
複製代碼
#對標籤進行分類編碼
from tensorflow.keras.utils import to_categorical
train_labels = to_categorical(train_labels) 
test_labels = to_categorical(test_labels)
複製代碼
#訓練網絡
network.fit(train_images, train_labels, epochs=5, batch_size=128)
複製代碼
Train on 60000 samples
Epoch 1/5
60000/60000 [==============================] - 4s 74us/sample - loss: 0.2543 - accuracy: 0.9248
Epoch 2/5
60000/60000 [==============================] - 4s 62us/sample - loss: 0.1040 - accuracy: 0.9692
Epoch 3/5
60000/60000 [==============================] - 4s 62us/sample - loss: 0.0686 - accuracy: 0.9791
Epoch 4/5
60000/60000 [==============================] - 4s 64us/sample - loss: 0.0497 - accuracy: 0.9856
Epoch 5/5
60000/60000 [==============================] - 4s 61us/sample - loss: 0.0368 - accuracy: 0.9890





<tensorflow.python.keras.callbacks.History at 0x248802cfd88>
複製代碼

一個是網絡在訓練數據上的損失(loss),另外一個是網絡在 訓練數據上的精度(acc)。python

檢查一下模型在測試集上的性能。 test_loss, test_acc = network.evaluate(test_images, test_labels) print('test_acc:', test_acc)api

訓練精度和測試精度之間的這種差距是過擬合(overfit)形成的。 過擬合是指機器學習模型在新數據上的性能每每比在訓練數據上要差數組

相關文章
相關標籤/搜索