当前位置: 首页 > news >正文

机器学习——KMeans聚类算法(算法原理+超参数详解+实战案例)


K-Means 聚类算法详解与实战

1. 什么是 K-Means?

K-Means 是一种常用的无监督学习聚类算法,用于将数据集划分为 K 个簇(Cluster)。它的目标是让簇内的数据尽量相似,簇间的数据尽量不同。

应用场景包括:

  • 客户分群(Marketing Segmentation)

  • 图像压缩(Image Compression)

  • 文档聚类(Document Clustering)

  • 异常检测(Anomaly Detection)


2. 算法原理

K-Means 的核心思想是:

  1. 随机选择 K 个点作为初始聚类中心(质心,Centroid)

  2. 计算每个样本到各质心的距离,将样本分配到最近的质心所在的簇。

  3. 重新计算每个簇的质心(即簇内所有点的均值)。

  4. 重复步骤 2 和 3,直到簇不再变化或达到最大迭代次数。

其优化目标是最小化簇内的平方误差和(Sum of Squared Errors, SSE):

其中:

  • Ck :第 k 个簇

  • μk :第 k 个簇的质心


3. 算法流程

  1. 选择 K 值(簇的数量)。

  2. 初始化 K 个质心。

  3. 分配样本到最近质心。

  4. 更新质心为簇内样本均值。

  5. 检查收敛条件:

    • 质心变化小于阈值

    • 或达到最大迭代次数


4. K 值的选择方法

K-Means 需要提前设定 K,但这个值怎么选呢?
常用方法:

  • 肘部法(Elbow Method)
    绘制 K 对 SSE 的曲线,当下降幅度明显减缓的位置就是“肘部”。

  • 轮廓系数(Silhouette Coefficient)
    取值范围 [-1, 1],越接近 1 聚类效果越好。


5. 优缺点

优点:

  • 简单高效,易于实现

  • 对大数据集表现较好(时间复杂度 O(n) ~ O(nkt))

缺点:

  • 需要提前设定 K

  • 对异常值和噪声敏感

  • 假设簇是球形且大小相近

  • 容易陷入局部最优(可用多次初始化改善)


6.KMeans 超参数详解

from sklearn.cluster import KMeansmodel = KMeans(n_clusters=8,init='k-means++',n_init=10,max_iter=300,tol=1e-4,verbose=0,random_state=None,copy_x=True,algorithm='lloyd'
)
超参数作用描述类型默认值备注与建议
n_clusters聚类簇的数量 Kint8需根据数据选择,常用肘部法或轮廓系数确定
init质心初始化方法{'k-means++','random'} 或 ndarray'k-means++'推荐用 'k-means++',提升收敛速度和效果
n_init不同随机质心初始化运行次数int10值越大越稳定,默认10次足够,多数情况下不用调
max_iter单次运行最大迭代次数int300超过该迭代次数则停止,一般300够用
tol收敛容差阈值float1e-4质心移动小于该值停止迭代,调小提高精度但慢
verbose迭代过程输出等级int00不输出,1或2输出详细调试信息
random_state随机种子,保证结果复现int 或 RandomStateNone实验需固定,常用42等数字
copy_x是否复制输入数据boolTrueFalse节省内存但修改原数据
algorithmK-Means算法实现版本{'lloyd', 'elkan'}'lloyd''elkan'更快适合小稠密数据,稀疏数据用'lloyd'

7. Python 实战案例

我们用 scikit-learn 对二维数据进行聚类,并可视化结果。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
from sklearn.cluster import KMeans# 1. 生成模拟数据 (这一部分不用在意)
X, y_true = make_blobs(n_samples=300, centers=4, cluster_std=0.60, random_state=42)# 2. 创建并训练KMeans模型
kmeans = KMeans(n_clusters=4, random_state=42, n_init=10)
kmeans.fit(X)# 3. 获取聚类结果
y_kmeans = kmeans.predict(X)# 4. 可视化聚类结果
plt.scatter(X[:, 0], X[:, 1], c=y_kmeans, s=50, cmap='viridis')# 绘制质心
centers = kmeans.cluster_centers_
plt.scatter(centers[:, 0], centers[:, 1], c='red', s=200, alpha=0.75, marker='X', label='质心')plt.title("K-Means")
plt.legend()
plt.show()

运行结果:

  • 数据被分为 4 类,不同颜色代表不同簇

  • 红色 X 是质心位置


8. 代码细节说明

  • n_clusters:指定簇的数量 K

  • random_state:确保结果可复现

  • n_init:KMeans 会多次随机初始化质心,取最佳结果,默认值从 1 提升到 10 以提高稳定性

  • cluster_centers_:存储最终的质心坐标

  • labels_:每个样本的簇标签


9. 改进方法

  • K-Means++:优化质心初始化,减少陷入局部最优的概率

  • Mini-Batch K-Means:适合大规模数据,使用小批量数据迭代更新质心

  • 谱聚类、DBSCAN:在簇形状不规则时效果更好


10. 总结

K-Means 是机器学习中最常用的聚类算法之一,适合簇形状较为规则、数量已知的场景。它简单、高效,但也有对 K 值和噪声敏感等缺点,实际应用时往往需要结合数据分布和改进方法使用。

http://www.dtcms.com/a/321354.html

相关文章:

  • Mysql与Ooracle 索引失效场景对比
  • 机械学习--k-means
  • 网站建设上线后需要维护哪些内容
  • Spring Security自动处理/login请求,后端控制层没有 @PostMapping(“/login“) 这样的 Controller 方法
  • Python调用豆包API批量提取图片信息
  • flink闲谈
  • 碰一碰NFC开发写好评php语言源码
  • 【接口自动化】-2- request模块及通过变量实现接口关联
  • 技术融合赋能文旅元宇宙:虚实共生重构产业新生态
  • 宝龙地产债务化解解决方案一:基于资产代币化与轻资产转型的战略重构
  • 苹果iPhone 17系列将发售,如何解决部分软件适配问题引发讨论
  • RabbitMQ 如何实现高可用
  • RabbitMQ面试精讲 Day 17:消费者调优与并发消费
  • 《在 Spring Boot 中安全使用 Qwen API-KEY:环境变量替代明文配置的最佳实践》
  • 五十五、【Linux系统nginx服务】nginx安装、用户认证、https实现
  • 若以微服务部署踩坑点
  • Kiro :从“规范”到“实现”的全流程 AI 助手
  • PBootcms网站模板伪静态配置教程
  • 【新启航】旋转治具 VS 手动翻转:三维扫描中自动化定位如何将单件扫描成本压缩 75%
  • 深度学习圈常见的 TensorFlow、PyTorch、Transformer、transformers,到底有什么区别?
  • WEEX参与欧洲两场重要Web3线下活动,助力社区协作与技术交流
  • c++注意点(15)----设计模式(桥接模式与适配器模式)
  • 机器学习 SVM支持向量机
  • LintCode第433题-岛屿的个数
  • 【同余最短路】P2371 [国家集训队] 墨墨的等式|省选-
  • C5.2:如何利用BJT的区域进行稳定工作
  • 冠雅新品 | 以“无形之光”守护双眸,以“无声之智”浸润生活
  • 冷冻食材,鲜美生活的新选择
  • 深入理解OpenGL Shader与GLSL:基础知识与优势分析
  • 深度学习·Cascade-CLIP