您好,登錄后才能下訂單哦!
今天就跟大家聊聊有關KNN算法中如何識別手寫數字,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
今天來介紹如何使用KNN 算法識別手寫數字
手寫數字數據集是一個用于圖像處理的數據集,這些數據描繪了 [0, 9] 的數字,我們可以用KNN 算法來識別這些數字。
MNIST 是完整的手寫數字數據集,其中包含了60000 個訓練樣本和10000 個測試樣本。
sklearn 中也有一個自帶的手寫數字數據集:
共包含 1797 個數據樣本,每個樣本描繪了一個 8*8 像素的 [0, 9] 的數字。
每個樣本由 65 個數字組成:
前 64 個數字是特征數據,特征數據的范圍是 [0, 16]
最后一個數字是目標數據,目標數據的范圍是 [0, 9]
我們抽出 5 個樣本來看下:
0,0,5,13,9,1,0,0,0,0,13,15,10,15,5,0,0,3,15,2,0,11,8,0,0,4,12,0,0,8,8,0,0,5,8,0,0,9,8,0,0,4,11,0,1,12,7,0,0,2,14,5,10,12,0,0,0,0,6,13,10,0,0,0,0 0,0,0,12,13,5,0,0,0,0,0,11,16,9,0,0,0,0,3,15,16,6,0,0,0,7,15,16,16,2,0,0,0,0,1,16,16,3,0,0,0,0,1,16,16,6,0,0,0,0,1,16,16,6,0,0,0,0,0,11,16,10,0,0,1 0,0,0,4,15,12,0,0,0,0,3,16,15,14,0,0,0,0,8,13,8,16,0,0,0,0,1,6,15,11,0,0,0,1,8,13,15,1,0,0,0,9,16,16,5,0,0,0,0,3,13,16,16,11,5,0,0,0,0,3,11,16,9,0,2 0,0,7,15,13,1,0,0,0,8,13,6,15,4,0,0,0,2,1,13,13,0,0,0,0,0,2,15,11,1,0,0,0,0,0,1,12,12,1,0,0,0,0,0,1,10,8,0,0,0,8,4,5,14,9,0,0,0,7,13,13,9,0,0,3 0,0,0,1,11,0,0,0,0,0,0,7,8,0,0,0,0,0,1,13,6,2,2,0,0,0,7,15,0,9,8,0,0,5,16,10,0,16,6,0,0,4,15,16,13,16,1,0,0,0,0,3,15,10,0,0,0,0,0,2,16,4,0,0,4
使用該數據集,需要先加載:
>>> from sklearn.datasets import load_digits >>> digits = load_digits()
查看第一個圖像數據:
>>> digits.images[0] array([[ 0., 0., 5., 13., 9., 1., 0., 0.], [ 0., 0., 13., 15., 10., 15., 5., 0.], [ 0., 3., 15., 2., 0., 11., 8., 0.], [ 0., 4., 12., 0., 0., 8., 8., 0.], [ 0., 5., 8., 0., 0., 9., 8., 0.], [ 0., 4., 11., 0., 1., 12., 7., 0.], [ 0., 2., 14., 5., 10., 12., 0., 0.], [ 0., 0., 6., 13., 10., 0., 0., 0.]])
我們可以用 matplotlib 將該圖像畫出來:
>>> import matplotlib.pyplot as plt >>> plt.imshow(digits.images[0]) >>> plt.show()
畫出來的圖像如下,代表 0:
sklearn 庫的 neighbors 模塊實現了KNN 相關算法,其中:
KNeighborsClassifier
類用于分類問題
KNeighborsRegressor
類用于回歸問題
這兩個類的構造方法基本一致,這里我們主要介紹 KNeighborsClassifier
類,原型如下:
KNeighborsClassifier( n_neighbors=5, weights='uniform', algorithm='auto', leaf_size=30, p=2, metric='minkowski', metric_params=None, n_jobs=None, **kwargs)
來看下幾個重要參數的含義:
n_neighbors:即 KNN 中的 K 值,一般使用默認值 5。
weights:用于確定鄰居的權重,有三種方式:
weights=uniform,表示所有鄰居的權重相同。
weights=distance,表示權重是距離的倒數,即與距離成反比。
自定義函數,可以自定義不同距離所對應的權重,一般不需要自己定義函數。
algorithm:用于設置計算鄰居的算法,它有四種方式:
調整 leaf_size 會影響樹的構造和搜索速度。
它和 KD 樹相比,采用的是線性掃描,而不是通過構造樹結構進行快速檢索。
缺點是,當訓練集較大的時候,效率很低。
與KD 樹一樣都是多維空間的數據結構。
球樹更適用于維度較大的情況。
KD 樹是一種多維空間的數據結構,方便對數據進行檢索。
KD 樹適用于維度較少的情況,一般維數不超過 20,如果維數大于 20 之后,效率會下降。
algorithm=auto,根據數據的情況自動選擇適合的算法。
algorithm=kd_tree,使用 KD 樹 算法。
algorithm=ball_tree,使用球樹算法。
algorithm=brute,稱為暴力搜索。
leaf_size:表示構造 KD 樹或球樹時的葉子節點數,默認是 30。
首先加載數據集:
from sklearn.datasets import load_digits digits = load_digits() data = digits.data # 特征集 target = digits.target # 目標集
將數據集拆分為訓練集(75%)和測試集(25%):
from sklearn.model_selection import train_test_split train_x, test_x, train_y, test_y = train_test_split( data, target, test_size=0.25, random_state=33)
構造KNN 分類器:
from sklearn.neighbors import KNeighborsClassifier # 采用默認參數 knn = KNeighborsClassifier()
擬合模型:
knn.fit(train_x, train_y)
預測數據:
predict_y = knn.predict(test_x)
計算模型準確度:
from sklearn.metrics import accuracy_score score = accuracy_score(test_y, predict_y) print score # 0.98
最終計算出來模型的準確度是 98%,準確度還是不錯的。
看完上述內容,你們對KNN算法中如何識別手寫數字有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。