当前位置: 首页 > news >正文

机器学习(一)KNN,K近邻算法(K-Nearest Neighbors)

💡 建议初学者掌握KNN作为理解其他复杂算法(如SVM、决策树、神经网络)的基石。

K近邻算法(K-Nearest Neighbors, KNN)详解:原理、实践与优化

K近邻算法(K-Nearest NeighboKrs,简称KNN)是一种经典、直观且易于实现的监督学习方法,既可用于分类,也可用于回归。它“懒惰”地存储所有训练样本,直到有新样本需要预测时才临时计算,因此也被称为“懒惰学习算法”。
本文将系统介绍KNN的核心思想、算法流程、距离度量、超参数、优缺点、使用方法与完整Python实战案例,帮助读者从理论到实践全面掌握这一算法。


一、核心思想 🧠

KNN 基于以下假设:

近朱者赤,近墨者黑”:一个样本的标签很可能与其最近邻的样本标签一致。

具体流程:

  • 对新样本,计算它与训练集中所有样本的距离;

  • 选出距离最小的 K 个邻居;

  • 分类:根据邻居类别投票(通常为多数投票,但可加权);

  • 回归:返回邻居标签的平均值或加权平均值。

其中,三个核心超参数影响性能:

  • K 值

  • 距离度量方式

  • 投票或加权策略


二、算法流程(以分类为例)

  1. 准备训练集与测试集

  2. 对测试集中每个新样本,计算其与所有训练样本的距离

  3. 对距离排序,选取最近的 K 个邻居

  4. 投票或加权,输出预测类别

  5. 返回所有样本的预测值(分类/回归结果)


三、常见距离度量方法

不同的任务场景和数据类型,可能需要不同的距离度量方式:

距离类型定义适用场景
欧氏距离(L₂)∑(xi−yi)2\sqrt{\sum (x_i - y_i)^2}连续特征,标准的距离度量
曼哈顿距离(L₁)(\sumx_i - y_i
闵可夫斯基距离(Lₚ)(\left(\sumx_i - y_i
余弦相似度x⋅y∥x∥∥y∥\dfrac{x \cdot y}{\|x\|\|y\|}文本或向量空间数据的方向相似度
汉明距离不同位数数目分类特征、二进制特征或字符串比较

⚠️ 注意:使用KNN前通常需要对数据做标准化(如Z-score或Min-Max),防止量纲不同导致距离计算失真。


四、KNN的关键超参数

1. K值选择

  • K太小 → 模型复杂,容易过拟合,对噪声敏感;

  • K太大 → 模型过于平滑,可能欠拟合。

通常使用**交叉验证(GridSearchCV)**选择合适的K值。

2. 距离度量方式

根据特征类型和数据分布选择距离函数(见上表)。

3. 权重策略

  • uniform:每个邻居权重相同;

  • distance:距离越近的邻居权重越大。

4. 最近邻搜索算法

  • brute:暴力搜索,适合小规模数据;

  • kd_tree / ball_tree:适合中等维度(<30)的数据;

  • 高维/大规模数据推荐使用近似搜索库:如 Faiss、Annoy、ScaNN。


五、KNN的优缺点

✅ 优点

  • 简单直观,易于实现;

  • 无需训练,可直接使用训练数据;

  • 天然支持多分类与回归;

  • 非线性决策边界处理能力强。

❌ 缺点

  • 预测时计算量大,难以实时响应;

  • 内存消耗高,需保存全部训练样本;

  • 高维数据效果差(维度灾难);

  • 对异常值、数据不平衡敏感。


六、KNN使用方法

发挥knn作用的代码:

# 创建一个 KNN 分类器对象,设置邻居数量 k=3
knn = KNeighborsClassifier(n_neighbors=3)# 在训练集上训练模型
knn.fit(X_train, y_train)# 在测试集上进行预测
y_pred = knn.predict(X_test)# 评估预测结果的准确率
accuracy = accuracy_score(y_test, y_pred)

以鸢尾花数据为例(可直接导入数据)完整代码:

# 导入所需的库
from sklearn.datasets import load_iris                      # 用于加载鸢尾花数据集
from sklearn.model_selection import train_test_split        # 用于划分训练集和测试集
from sklearn.neighbors import KNeighborsClassifier          # K近邻分类器
from sklearn.metrics import accuracy_score                  # 用于评估模型准确率# 1. 加载鸢尾花数据集(Iris 数据集是一个经典的机器学习分类数据集)
iris = load_iris()          # 加载数据集
X = iris.data               # 特征数据:4个特征(花萼长度、花萼宽度、花瓣长度、花瓣宽度)
y = iris.target             # 标签数据:3个类别(0=setosa,1=versicolor,2=virginica)# 2. 将数据集划分为训练集和测试集
# test_size=0.2 表示20%作为测试集,80%作为训练集
# random_state=42 保证每次运行划分方式一致(可复现)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 3. 创建一个 KNN 分类器对象,设置邻居数量 k=3
knn = KNeighborsClassifier(n_neighbors=3)# 4. 在训练集上训练模型
knn.fit(X_train, y_train)# 5. 在测试集上进行预测
y_pred = knn.predict(X_test)# 6. 评估预测结果的准确率
accuracy = accuracy_score(y_test, y_pred)
print("模型在测试集上的准确率:", accuracy)


七、实践建议与优化技巧

问题类型优化建议
高维数据(维度灾难)使用 PCA、t‑SNE、UMAP 等进行降维处理
类别不平衡使用加权投票(distance)或 SMOTE 等过采样方法
大规模训练样本使用 Faiss、Annoy 等近似邻居搜索库
实时响应需求构建索引结构(KD‑Tree、Ball‑Tree)或 LSH 近似搜索
噪音点/异常值结合局部加权(如 LOF)、数据清洗与异常检测
特征不同类型混合对类别型特征采用合适距离度量(如汉明距离 + 欧氏距离组合)


八、应用场景与适用领域

KNN 虽然简单,但在以下领域仍有广泛应用:

  • 推荐系统(基于用户/物品最近邻推荐)

  • 图像检索(基于特征向量的最近邻搜索)

  • 异常检测(判断样本是否偏离常见邻居)

  • 文本分类(TF‑IDF 向量 + 余弦相似度)


九、总结与拓展

  • 优点:无训练过程、易于理解、适用性广;

  • 挑战:对计算资源依赖高、受高维影响严重;

  • 优化路径:标准化、降维、加速邻居搜索、参数调优、类别平衡处理。

KNN凭借其“无需训练,拿来即用”的特点,是机器学习中最容易理解和实现的算法之一。虽然它在高维、高频场景中存在计算瓶颈,但通过特征工程、参数调优和搜索优化,KNN依然能够在推荐系统、图像检索、异常检测、文本分类等任务中大放异彩

💡 建议初学者掌握KNN作为理解其他复杂算法(如SVM、决策树、神经网络)的基石。

http://www.dtcms.com/a/298395.html

相关文章:

  • 不用电脑要不要关机?
  • win通过OpenSSL生成.ssh id_rsa密钥方法
  • 反射和SPI
  • 【DeepRare】疾病识别召回率100%
  • Haprxy七层代理
  • 呼叫中心系统管理权限功能配置
  • 深度学习篇---图片分辨率
  • Agentic RAG理解和简易实现
  • AMD官网下载失败,不让账户登录下载
  • 集合专题之Map
  • Kimi K2 大语言模型技术特性与应用实践分析
  • 初识opencv04——图像预处理3
  • 太极生两仪,两仪生四象,四象生八卦
  • mybatisX的自定义模板生成
  • 【深基12.例1】部分背包问题 Java
  • docker 挂载卷
  • 【C++】二叉搜索数
  • 使用Akshare获取股票历史数据
  • Avalonia 发布完cv到Linux上运行 出现字体丢失/不显示问题
  • [NLP]UPF基本语法及其在 native low power verification中的典型流程
  • 闲鱼多账号运营安全策略 如何规避同ip
  • MC_GearInPos电子齿轮
  • python-函数进阶、容器通用方法、字符串比大小(笔记)
  • 机器学习-SVM支持向量机
  • Unity UOS 多人联机
  • Go语言中的非类型安全指针
  • Idefics2:构建视觉-语言模型时,什么是重要的
  • Java 常用数据库详解
  • 数据结构 二叉树(1)
  • leetcode933最近的请求次数