機器學習:scikit-learn實現手寫數字識別

1.1 數據集簡介

  • 來源:archive.ics.uci.edu/ml/datasets…
  • 類別:0-9 共10個數字
  • 樣本數:1797
  • 特徵數:64
  • 特徵含義:8x8像素,每一個像素由0到16之間的整數表示
import numpy as np
from sklearn import datasets
digits = datasets.load_digits()
# 輸出數據集的樣本數與特徵數
print digits.data.shape
# 輸出全部目標類別
print np.unique(digits.target)
# 輸出數據集
print digits.data複製代碼
(1797, 64)
[0 1 2 3 4 5 6 7 8 9]
[[  0.   0.   5. ...,   0.   0.   0.]
 [  0.   0.   0. ...,  10.   0.   0.]
 [  0.   0.   0. ...,  16.   9.   0.]
 ...,
 [  0.   0.   1. ...,   6.   0.   0.]
 [  0.   0.   2. ...,  12.   0.   0.]
 [  0.   0.  10. ...,  12.   1.   0.]]複製代碼

1.2 數據集可視化

import matplotlib.pyplot as plt
# 導入字體管理器,用於提供中文支持
import matplotlib.font_manager as fm
font_set= fm.FontProperties(fname='C:/Windows/Fonts/msyh.ttc', size=14)

# 將圖像和目標標籤合併到一個列表中
images_and_labels = list(zip(digits.images, digits.target))

# 打印數據集的前8個圖像
plt.figure(figsize=(8, 6))
for index, (image, label) in enumerate(images_and_labels[:8]):
    plt.subplot(2, 4, index + 1)
    plt.axis('off')
    plt.imshow(image, cmap=plt.cm.gray_r,interpolation='nearest')
    plt.title(u'訓練樣本:' + str(label), fontproperties=font_set)

plt.show()複製代碼

png

# 樣本圖片效果
plt.figure(figsize=(6, 6))
plt.imshow(digits.images[0], cmap=plt.cm.gray_r, interpolation='nearest')
plt.show()複製代碼

png

1.3 用 PCA 降維

因爲該數據集有 64 個特徵值,也就是說有 64 個維度,所以沒辦法直觀地看到數據的分佈及其之間的關係。可是,實際起做用的維度可能比特徵值的個數要少得多,咱們能夠經過主成分分析來下降數據集的維度,從而觀察樣本點之間的關係。javascript

主成分分析(PCA):找到兩個變量的線性組合,儘量保留大部分的信息,這個新的變量(主成分)就能夠替代原來的變量。也就是說,PCA就是經過線性變換來產生新的變量,並最大化保留了數據的差別。java

from sklearn.decomposition import *

# 建立一個 PCA 模型
pca = PCA(n_components=2)

# 將數據應用到模型上
reduced_data_pca = pca.fit_transform(digits.data)

# 查看維度
print reduced_data_pca.shape複製代碼
(1797, 2)複製代碼

1.4 繪製散點圖

colors = ['black', 'blue', 'purple', 'yellow', 'white', 'red', 'lime', 'cyan', 'orange', 'gray']
plt.figure(figsize=(8, 6))
for i in range(len(colors)):
    x = reduced_data_pca[:, 0][digits.target == i]
    y = reduced_data_pca[:, 1][digits.target == i]
    plt.scatter(x, y, c=colors[i])
plt.legend(digits.target_names, bbox_to_anchor=(1.05, 1), loc=2, borderaxespad=0.)
plt.xlabel(u'第一個主成分', fontproperties=font_set)
plt.ylabel(u'第二個主成分', fontproperties=font_set)
plt.title(u"PCA 散點圖", fontproperties=font_set)
plt.show()複製代碼

png

2.1 數據歸一化

from sklearn.preprocessing import scale

data = scale(digits.data)

print data複製代碼
[[ 0.         -0.33501649 -0.04308102 ..., -1.14664746 -0.5056698
  -0.19600752]
 [ 0.         -0.33501649 -1.09493684 ...,  0.54856067 -0.5056698
  -0.19600752]
 [ 0.         -0.33501649 -1.09493684 ...,  1.56568555  1.6951369
  -0.19600752]
 ...,
 [ 0.         -0.33501649 -0.88456568 ..., -0.12952258 -0.5056698
  -0.19600752]
 [ 0.         -0.33501649 -0.67419451 ...,  0.8876023  -0.5056698
  -0.19600752]
 [ 0.         -0.33501649  1.00877481 ...,  0.8876023  -0.26113572
  -0.19600752]]複製代碼

2.2 拆分數據集

將數據集拆分紅訓練集和測試集python

from sklearn.cross_validation import train_test_split

X_train, X_test, y_train, y_test, images_train, images_test = train_test_split(data, digits.target, digits.images, test_size=0.25, random_state=42)

print "訓練集", X_train.shape
print "測試集", X_test.shape複製代碼
訓練集 (1347, 64)
測試集 (450, 64)複製代碼

2.3 使用 SVM 分類器

from sklearn import svm

# 建立 SVC 模型
svc_model = svm.SVC(gamma=0.001, C=100, kernel='linear')

# 將訓練集應用到 SVC 模型上
svc_model.fit(X_train, y_train)

# 評估模型的預測效果
print svc_model.score(X_test, y_test)複製代碼
0.97777777777777775複製代碼

2.4 優化參數

svc_model = svm.SVC(gamma=0.001, C=10, kernel='rbf')

svc_model.fit(X_train, y_train)

print svc_model.score(X_test, y_test)複製代碼
0.98222222222222222複製代碼

3.1 預測結果

import matplotlib.pyplot as plt

# 使用建立的 SVC 模型對測試集進行預測
predicted = svc_model.predict(X_test)

# 將測試集的圖像與預測的標籤合併到一個列表中
images_and_predictions = list(zip(images_test, predicted))

# 打印前 4 個預測的圖像和結果
plt.figure(figsize=(8, 2))
for index, (image, prediction) in enumerate(images_and_predictions[:4]):
    plt.subplot(1, 4, index + 1)
    plt.axis('off')
    plt.imshow(image, cmap=plt.cm.gray_r, interpolation='nearest')
    plt.title(u'預測結果: ' + str(prediction), fontproperties=font_set)

plt.show()複製代碼

png

3.2 分析結果的準確性

X = np.arange(len(y_test))
# 生成比較列表,若是預測的結果正確,則對應位置爲0,錯誤則爲1
comp = [0 if y1 == y2 else 1 for y1, y2 in zip(y_test, predicted)]
plt.figure(figsize=(8, 6))
# 圖像發生波動的地方,說明預測的結果有誤
plt.plot(X, comp)
plt.ylim(-1, 2)
plt.yticks([])
plt.show()

print "測試集數量:", len(y_test)
print "錯誤識別數:", sum(comp)
print "識別準確率:", 1 - float(sum(comp)) / len(y_test)複製代碼

png

測試集數量: 450
錯誤識別數: 8
識別準確率: 0.982222222222複製代碼

3.3 錯誤識別樣本分析

# 收集錯誤識別的樣本下標
wrong_index = []
for i, value in enumerate(comp):
    if value: wrong_index.append(i)

# 輸出錯誤識別的樣本圖像
plt.figure(figsize=(8, 6))
for plot_index, image_index in enumerate(wrong_index):
    image = images_test[image_index]
    plt.subplot(2, 4, plot_index + 1)
    plt.axis('off')
    plt.imshow(image, cmap=plt.cm.gray_r,interpolation='nearest')
    # 圖像說明,8->9 表示正確值爲8,被錯誤地識別成了9
    info = "{right}->{wrong}".format(right=y_test[image_index], wrong=predicted[image_index])
    plt.title(info, fontsize=16)

plt.show()複製代碼

png

參考文章:Python Machine Learning: Scikit-Learn Tutorial (Article)git

版權聲明

做者:Wray Zheng
原文: www.codebelief.com/article/201…app

相關文章
相關標籤/搜索