溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

python實(shí)現(xiàn)KNN分類算法

發(fā)布時間:2020-08-21 13:56:49 來源:腳本之家 閱讀:127 作者:王念晨 欄目:開發(fā)技術(shù)

一、KNN算法簡介

鄰近算法,或者說K最近鄰(kNN,k-NearestNeighbor)分類算法是數(shù)據(jù)挖掘分類技術(shù)中最簡單的方法之一。所謂K最近鄰,就是k個最近的鄰居的意思,說的是每個樣本都可以用它最接近的k個鄰居來代表。

kNN算法的核心思想是如果一個樣本在特征空間中的k個最相鄰的樣本中的大多數(shù)屬于某一個類別,則該樣本也屬于這個類別,并具有這個類別上樣本的特性。該方法在確定分類決策上只依據(jù)最鄰近的一個或者幾個樣本的類別來決定待分樣本所屬的類別。 kNN方法在類別決策時,只與極少量的相鄰樣本有關(guān)。由于kNN方法主要靠周圍有限的鄰近的樣本,而不是靠判別類域的方法來確定所屬類別的,因此對于類域的交叉或重疊較多的待分樣本集來說,kNN方法較其他方法更為適合。

python實(shí)現(xiàn)KNN分類算法

二、算法過程

1.讀取數(shù)據(jù)集

2.處理數(shù)據(jù)集數(shù)據(jù) 清洗,采用留出法hold-out拆分?jǐn)?shù)據(jù)集:訓(xùn)練集、測試集

3.實(shí)現(xiàn)KNN算法類:

   1)遍歷訓(xùn)練數(shù)據(jù)集,離差平方和計(jì)算各點(diǎn)之間的距離

   2)對各點(diǎn)的距離數(shù)組進(jìn)行排序,根據(jù)輸入的k值取對應(yīng)的k個點(diǎn)

   3)k個點(diǎn)中,統(tǒng)計(jì)每個點(diǎn)出現(xiàn)的次數(shù),權(quán)重為距離的導(dǎo)數(shù),得到最大的值,該值的索引就是我們計(jì)算出的判定類別

三、代碼實(shí)現(xiàn)及數(shù)據(jù)分析

import numpy as np
import pandas as pd
 
# 讀取鳶尾花數(shù)據(jù)集,header參數(shù)來指定標(biāo)題的行。默認(rèn)為0。如果沒有標(biāo)題,則使用None。
data = pd.read_csv("你的目錄/Iris.csv",header=0)
# 顯示前n行記錄。默認(rèn)n的值為5。
#data.head()
# 顯示末尾的n行記錄。默認(rèn)n的值為5。
#data.tail()
# 隨機(jī)抽取樣本。默認(rèn)抽取一條,我們可以通過參數(shù)進(jìn)行指定抽取樣本的數(shù)量。
# data.sample(10)
# 將類別文本映射成為數(shù)值類型
 
data["Species"] = data["Species"].map({"Iris-virginica": 0, "Iris-setosa": 1, "Iris-versicolor": 2})
# 刪除不需要的Id列。
data.drop("Id", axis=1, inplace=True )
data.drop_duplicates(inplace=True)
## 查看各個類別的鳶尾花具有多少條記錄。
data["Species"].value_counts()

分析:首先讀取數(shù)據(jù)集,如下圖

python實(shí)現(xiàn)KNN分類算法

最后一列為數(shù)據(jù)集的分類名稱,但是在程序中,我們更傾向于使用如0、1、2數(shù)字來表示分類,所以對數(shù)據(jù)集進(jìn)行處理,處理后的數(shù)據(jù)集如下:

python實(shí)現(xiàn)KNN分類算法

然后采用留出法對數(shù)據(jù)集進(jìn)行拆分,一部分用作訓(xùn)練,一部分用作測試,如下圖:

#構(gòu)建訓(xùn)練集與測試集,用于對模型進(jìn)行訓(xùn)練與測試。
# 提取出每個類比的鳶尾花數(shù)據(jù)
t0 = data[data["Species"] == 0]
t1 = data[data["Species"] == 1]
t2 = data[data["Species"] == 2]
# 對每個類別數(shù)據(jù)進(jìn)行洗牌 random_state 每次以相同的方式洗牌 保證訓(xùn)練集與測試集數(shù)據(jù)取樣方式相同
t0 = t0.sample(len(t0), random_state=0)
t1 = t1.sample(len(t1), random_state=0)
t2 = t2.sample(len(t2), random_state=0)
# 構(gòu)建訓(xùn)練集與測試集。
train_X = pd.concat([t0.iloc[:40, :-1], t1.iloc[:40, :-1], t2.iloc[:40, :-1]] , axis=0)#截取前40行,除最后列外的列,因?yàn)樽詈笠涣惺莥
train_y = pd.concat([t0.iloc[:40, -1], t1.iloc[:40, -1], t2.iloc[:40, -1]], axis=0)
test_X = pd.concat([t0.iloc[40:, :-1], t1.iloc[40:, :-1], t2.iloc[40:, :-1]], axis=0)
test_y = pd.concat([t0.iloc[40:, -1], t1.iloc[40:, -1], t2.iloc[40:, -1]], axis=0)

實(shí)現(xiàn)KNN算法類:

#定義KNN類,用于分類,類中定義兩個預(yù)測方法,分為考慮權(quán)重不考慮權(quán)重兩種情況
class KNN:
 ''' 使用Python語言實(shí)現(xiàn)K近鄰算法。(實(shí)現(xiàn)分類) '''
 def __init__(self, k):
  '''初始化方法 
   Parameters
   -----
   k:int 鄰居的個數(shù)
  '''
  self.k = k
 
 def fit(self,X,y):
  '''訓(xùn)練方法
   Parameters
   ----
   X : 類數(shù)組類型,形狀為:[樣本數(shù)量, 特征數(shù)量]
   待訓(xùn)練的樣本特征(屬性)
  
  y : 類數(shù)組類型,形狀為: [樣本數(shù)量]
   每個樣本的目標(biāo)值(標(biāo)簽)。
  '''
  #將X轉(zhuǎn)換成ndarray數(shù)組
  self.X = np.asarray(X)
  self.y = np.asarray(y)
  
 def predict(self,X):
  """根據(jù)參數(shù)傳遞的樣本,對樣本數(shù)據(jù)進(jìn)行預(yù)測。
  
  Parameters
  -----
  X : 類數(shù)組類型,形狀為:[樣本數(shù)量, 特征數(shù)量]
   待訓(xùn)練的樣本特征(屬性) 
  
  Returns
  -----
  result : 數(shù)組類型
   預(yù)測的結(jié)果。
  """
  X = np.asarray(X)
  result = []
  # 對ndarray數(shù)組進(jìn)行遍歷,每次取數(shù)組中的一行。
  for x in X:
   # 對于測試集中的每一個樣本,依次與訓(xùn)練集中的所有樣本求距離。
   dis = np.sqrt(np.sum((x - self.X) ** 2, axis=1))
   ## 返回?cái)?shù)組排序后,每個元素在原數(shù)組(排序之前的數(shù)組)中的索引。
   index = dis.argsort()
   # 進(jìn)行截?cái)?,只取前k個元素?!救【嚯x最近的k個元素的索引】
   index = index[:self.k]
   # 返回?cái)?shù)組中每個元素出現(xiàn)的次數(shù)。元素必須是非負(fù)的整數(shù)?!臼褂脀eights考慮權(quán)重,權(quán)重為距離的倒數(shù)?!?   count = np.bincount(self.y[index], weights= 1 / dis[index])
   # 返回ndarray數(shù)組中,值最大的元素對應(yīng)的索引。該索引就是我們判定的類別。
   # 最大元素索引,就是出現(xiàn)次數(shù)最多的元素。
   result.append(count.argmax())
  return np.asarray(result)
#創(chuàng)建KNN對象,進(jìn)行訓(xùn)練與測試。
knn = KNN(k=3)
#進(jìn)行訓(xùn)練
knn.fit(train_X,train_y)
#進(jìn)行測試
result = knn.predict(test_X)
# display(result)
# display(test_y)
display(np.sum(result == test_y))
display(np.sum(result == test_y)/ len(result))

得出計(jì)算結(jié)果:

26
0.9629629629629629

得出該模型計(jì)算的結(jié)果中,有26條記錄與測試集相等,準(zhǔn)確率為96%

接下來繪制散點(diǎn)圖:

#導(dǎo)入可視化所必須的庫。
import matplotlib as mpl
import matplotlib.pyplot as plt
mpl.rcParams["font.family"] = "SimHei"
mpl.rcParams["axes.unicode_minus"] = False
 
#繪制散點(diǎn)圖。為了能夠更方便的進(jìn)行可視化,這里只選擇了兩個維度(分別是花萼長度與花瓣長度)。
# {"Iris-virginica": 0, "Iris-setosa": 1, "Iris-versicolor": 2})
# 設(shè)置畫布的大小
plt.figure(figsize=(10, 10))
# 繪制訓(xùn)練集數(shù)據(jù)
plt.scatter(x=t0["SepalLengthCm"][:40], y=t0["PetalLengthCm"][:40], color="r", label="Iris-virginica")
plt.scatter(x=t1["SepalLengthCm"][:40], y=t1["PetalLengthCm"][:40], color="g", label="Iris-setosa")
plt.scatter(x=t2["SepalLengthCm"][:40], y=t2["PetalLengthCm"][:40], color="b", label="Iris-versicolor")
# 繪制測試集數(shù)據(jù)
right = test_X[result == test_y]
wrong = test_X[result != test_y]
plt.scatter(x=right["SepalLengthCm"], y=right["PetalLengthCm"], color="c", marker="x", label="right")
plt.scatter(x=wrong["SepalLengthCm"], y=wrong["PetalLengthCm"], color="m", marker=">", label="wrong")
plt.xlabel("花萼長度")
plt.ylabel("花瓣長度")
plt.title("KNN分類結(jié)果顯示")
plt.legend(loc="best")
plt.show()

程序運(yùn)行結(jié)果如下:

python實(shí)現(xiàn)KNN分類算法

四、思考與優(yōu)化

①嘗試去改變鄰居的數(shù)量。

②在考慮權(quán)重的情況下,修改鄰居的數(shù)量。

③對比查看結(jié)果上的差異。

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持億速云。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI