c语言编程笔录

首页 >   > 笔记大全

笔记大全

kNN算法怎么在Python中实现

更新时间:2023-07-01

介绍

k最近邻(k-Nearest Neighbors,简称kNN)算法是一种常用的分类和回归方法。它的基本思想是根据实例的特征值在特征空间中找到与其最近的k个邻居,并根据这些邻居的类别进行分类或回归预测。在Python中,我们可以利用NumPy和Scikit-learn等库来实现kNN算法。

算法流程

首先,我们需要导入相关的库:

import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score

然后,我们可以加载数据集并进行训练集和测试集的划分:

iris = load_iris()
X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=42)

接下来,我们可以创建一个kNN分类器,并对训练集进行拟合:

k = 3
knn = KNeighborsClassifier(n_neighbors=k)
knn.fit(X_train, y_train)

最后,我们可以使用训练好的模型对测试集进行预测,并计算准确率:

y_pred = knn.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
print("准确率:", accuracy)

代码解释

上述代码中,我们首先导入了需要使用的库。然后,我们通过load_iris()函数加载了Iris数据集,该数据集包含了150个样本的花萼和花瓣的测量值,以及其所属的品种类别。

接着,我们使用train_test_split()函数将数据集划分为训练集和测试集,其中test_size=0.2表示将数据集的20%用于测试。

然后,我们创建了一个kNN分类器,并使用fit()方法对训练集进行拟合,指定n_neighbors=k表示使用k个最近邻居进行分类。

最后,我们使用predict()方法对测试集进行预测,得到预测结果y_pred,并使用accuracy_score()函数计算预测准确率。

图片

总结

通过以上的代码,我们可以实现kNN算法并对数据集进行分类。通过导入相关的库,加载数据集,并利用训练集训练模型,再使用测试集进行预测,最后计算预测准确率,可以得到kNN算法的实现和结果。