KNN 算法-實戰篇-如何識別手寫數字

公號:碼農充電站pro
主頁:https://codeshellme.github.iohtml

上篇文章介紹了KNN 算法的原理,今天來介紹如何使用KNN 算法識別手寫數字python

1,手寫數字數據集

手寫數字數據集是一個用於圖像處理的數據集,這些數據描繪了 [0, 9] 的數字,咱們能夠用KNN 算法來識別這些數字。git

MNIST 是完整的手寫數字數據集,其中包含了60000 個訓練樣本和10000 個測試樣本。github

sklearn 中也有一個自帶的手寫數字數據集算法

  • 共包含 1797 個數據樣本,每一個樣本描繪了一個 8*8 像素的 [0, 9] 的數字。
  • 每一個樣本由 65 個數字組成:
    • 前 64 個數字是特徵數據,特徵數據的範圍是 [0, 16]
    • 最後一個數字是目標數據,目標數據的範圍是 [0, 9]

咱們抽出 5 個樣原本看下:shell

0,0,5,13,9,1,0,0,0,0,13,15,10,15,5,0,0,3,15,2,0,11,8,0,0,4,12,0,0,8,8,0,0,5,8,0,0,9,8,0,0,4,11,0,1,12,7,0,0,2,14,5,10,12,0,0,0,0,6,13,10,0,0,0,0
0,0,0,12,13,5,0,0,0,0,0,11,16,9,0,0,0,0,3,15,16,6,0,0,0,7,15,16,16,2,0,0,0,0,1,16,16,3,0,0,0,0,1,16,16,6,0,0,0,0,1,16,16,6,0,0,0,0,0,11,16,10,0,0,1
0,0,0,4,15,12,0,0,0,0,3,16,15,14,0,0,0,0,8,13,8,16,0,0,0,0,1,6,15,11,0,0,0,1,8,13,15,1,0,0,0,9,16,16,5,0,0,0,0,3,13,16,16,11,5,0,0,0,0,3,11,16,9,0,2
0,0,7,15,13,1,0,0,0,8,13,6,15,4,0,0,0,2,1,13,13,0,0,0,0,0,2,15,11,1,0,0,0,0,0,1,12,12,1,0,0,0,0,0,1,10,8,0,0,0,8,4,5,14,9,0,0,0,7,13,13,9,0,0,3
0,0,0,1,11,0,0,0,0,0,0,7,8,0,0,0,0,0,1,13,6,2,2,0,0,0,7,15,0,9,8,0,0,5,16,10,0,16,6,0,0,4,15,16,13,16,1,0,0,0,0,3,15,10,0,0,0,0,0,2,16,4,0,0,4

使用該數據集,須要先加載:數據結構

>>> from sklearn.datasets import load_digits
>>> digits = load_digits()

查看第一個圖像數據:dom

>>> digits.images[0]
array([[ 0.,  0.,  5., 13.,  9.,  1.,  0.,  0.],
       [ 0.,  0., 13., 15., 10., 15.,  5.,  0.],
       [ 0.,  3., 15.,  2.,  0., 11.,  8.,  0.],
       [ 0.,  4., 12.,  0.,  0.,  8.,  8.,  0.],
       [ 0.,  5.,  8.,  0.,  0.,  9.,  8.,  0.],
       [ 0.,  4., 11.,  0.,  1., 12.,  7.,  0.],
       [ 0.,  2., 14.,  5., 10., 12.,  0.,  0.],
       [ 0.,  0.,  6., 13., 10.,  0.,  0.,  0.]])

咱們能夠用 matplotlib 將該圖像畫出來:函數

>>> import matplotlib.pyplot as plt
>>> plt.imshow(digits.images[0])
>>> plt.show()

畫出來的圖像以下,表明 0測試

在這裏插入圖片描述

2,sklearn 對 KNN 算法的實現

sklearn 庫的 neighbors 模塊實現了KNN 相關算法,其中:

  • KNeighborsClassifier 類用於分類問題
  • KNeighborsRegressor 類用於迴歸問題

這兩個類的構造方法基本一致,這裏咱們主要介紹 KNeighborsClassifier 類,原型以下:

KNeighborsClassifier(
	n_neighbors=5, 
	weights='uniform', 
	algorithm='auto', 
	leaf_size=30, 
	p=2, 
	metric='minkowski', 
	metric_params=None, 
	n_jobs=None, 
	**kwargs)

來看下幾個重要參數的含義:

  • n_neighbors:即 KNN 中的 K 值,通常使用默認值 5。
  • weights:用於肯定鄰居的權重,有三種方式:
    • weights=uniform,表示全部鄰居的權重相同。
    • weights=distance,表示權重是距離的倒數,即與距離成反比。
    • 自定義函數,能夠自定義不一樣距離所對應的權重,通常不須要本身定義函數。
  • algorithm:用於設置計算鄰居的算法,它有四種方式:
    • algorithm=auto,根據數據的狀況自動選擇適合的算法。
    • algorithm=kd_tree,使用 KD 樹 算法。
      • KD 樹是一種多維空間的數據結構,方便對數據進行檢索。
      • KD 樹適用於維度較少的狀況,通常維數不超過 20,若是維數大於 20 以後,效率會降低。
    • algorithm=ball_tree,使用球樹算法。
      • KD 樹同樣都是多維空間的數據結構。
      • 球樹更適用於維度較大的狀況。
    • algorithm=brute,稱爲暴力搜索
      • 它和 KD 樹相比,採用的是線性掃描,而不是經過構造樹結構進行快速檢索。
      • 缺點是,當訓練集較大的時候,效率很低。
    • leaf_size:表示構造 KD 樹球樹時的葉子節點數,默認是 30。
      • 調整 leaf_size 會影響樹的構造和搜索速度。

3,構造 KNN 分類器

首先加載數據集:

from sklearn.datasets import load_digits

digits = load_digits()
data = digits.data     # 特徵集
target = digits.target # 目標集

將數據集拆分爲訓練集(75%)和測試集(25%):

from sklearn.model_selection import train_test_split

train_x, test_x, train_y, test_y = train_test_split(
    data, target, test_size=0.25, random_state=33)

構造KNN 分類器:

from sklearn.neighbors import KNeighborsClassifier

# 採用默認參數
knn = KNeighborsClassifier()

擬合模型:

knn.fit(train_x, train_y)

預測數據:

predict_y = knn.predict(test_x)

計算模型準確度:

from sklearn.metrics import accuracy_score

score = accuracy_score(test_y, predict_y)
print score # 0.98

最終計算出來模型的準確度是 98%,準確度仍是不錯的。

4,總結

本篇文章使用KNN 算法處理了一個實際的分類問題,主要介紹瞭如下幾點:

  • 介紹了sklearn 中自帶的手寫數字集,並用 matplotlib 模塊畫出了數字圖像。
  • 介紹了sklearnneighbors.KNeighborsClassifier 類的用法。
  • 使用 KNeighborsClassifier 來識別手寫數字。

(本節完。)


推薦閱讀:

KNN 算法-理論篇-如何給電影進行分類

決策樹算法-理論篇-如何計算信息純度

決策樹算法-實戰篇-鳶尾花及波士頓房價預測

樸素貝葉斯分類-理論篇-如何經過幾率解決分類問題

樸素貝葉斯分類-實戰篇-如何進行文本分類


歡迎關注做者公衆號,獲取更多技術乾貨。

碼農充電站pro

相關文章
相關標籤/搜索