kNN算法怎么在Python中实现
更新时间:2023-07-01介绍
k最近邻(k-Nearest Neighbors,简称kNN)算法是一种常用的分类和回归方法。它的基本思想是根据实例的特征值在特征空间中找到与其最近的k个邻居,并根据这些邻居的类别进行分类或回归预测。在Python中,我们可以利用NumPy和Scikit-learn等库来实现kNN算法。
算法流程
首先,我们需要导入相关的库:
import numpy as np from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import accuracy_score
然后,我们可以加载数据集并进行训练集和测试集的划分:
iris = load_iris() X_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2, random_state=42)
接下来,我们可以创建一个kNN分类器,并对训练集进行拟合:
k = 3 knn = KNeighborsClassifier(n_neighbors=k) knn.fit(X_train, y_train)
最后,我们可以使用训练好的模型对测试集进行预测,并计算准确率:
y_pred = knn.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print("准确率:", accuracy)
代码解释
上述代码中,我们首先导入了需要使用的库。然后,我们通过load_iris()
函数加载了Iris数据集,该数据集包含了150个样本的花萼和花瓣的测量值,以及其所属的品种类别。
接着,我们使用train_test_split()
函数将数据集划分为训练集和测试集,其中test_size=0.2
表示将数据集的20%用于测试。
然后,我们创建了一个kNN分类器,并使用fit()
方法对训练集进行拟合,指定n_neighbors=k
表示使用k个最近邻居进行分类。
最后,我们使用predict()
方法对测试集进行预测,得到预测结果y_pred
,并使用accuracy_score()
函数计算预测准确率。
总结
通过以上的代码,我们可以实现kNN算法并对数据集进行分类。通过导入相关的库,加载数据集,并利用训练集训练模型,再使用测试集进行预测,最后计算预测准确率,可以得到kNN算法的实现和结果。