当前位置: 首页 > news >正文

无监督学习之K-means算法

无监督学习之K-means算法

1、无监督学习

  • 无监督学习(Unsupervised Learning)计算机根据样本的特征或相关性,实现从样本数据中训练出相应的预测模型
  • 无监督学习模型算法中,模型只需要使用特征矩阵X即可,不需要真实的标签y,聚类算法是无监督学习中的代表之一
  • 聚类算法:
    • 数据集中,拥有数据特征,但是没有具体的标签
    • 将数据划分成有意义或有用的簇
    • 聚类算法追求“簇内差异小,簇外差异大”。而这个 “差异”便是通过样本点到其簇质心的距离来衡量
  • 聚类算法和分类算法的区别:

在这里插入图片描述

2、K-means 算法

  • K-means 是一种流行的聚类算法,主要用于无监督学习中对未标记的数据进行分类。该算法的目标是将数据集中的样本划分为K个簇,使得簇内的样本彼此之间的差异最小化。这种差异通常通过簇内所有点到该簇中心点的距离平方和来衡量
属性含义
Kmeans算法将一组N个样本的特征矩阵X划分为K个无交集的簇,直观上看来簇是一个又一个聚集一起的数据,在一个簇中的数据就认为是同一类,簇就是聚类的结果表现,其中簇的个数是一个超参数
质心每个簇中所有数据的均值u,通常被称为这个簇的"质心",在二维平面中,簇的质心横坐标是横坐标的均值,质心的纵坐标是纵坐标的均值
  • K-means 算法的基本步骤:
    • 随机抽取k个样本作为最初的质心,这可以通过随机选取数据集中的K个样本或者使用一些启发式方法来实现
    • 计算每个样本点与k个质心的距离(通常是欧氏距离),将样本点分配到最近的一个质心,生成k个簇
    • 对于每个簇,计算所有被分该簇的样本点的平均值作为新的质心
    • 当质心的位置不再发生变化或者迭代结束,聚类完成
  • 动态图示:

在这里插入图片描述

3. API

  • K-means 算法输入的是 k 值和样本数据结合,输出的是 k 个簇的集合

  • sklearn.cluster.KMeans类是scikit-learn库提供的一个用于执行K-means聚类算法的工具。它提供了一个易于使用的接口来执行聚类操作,并且内置了多种优化选项,KMeans()用来实例化模型对象

    参数如下:

    • n_clusters: int,默认为8。要创建的簇的数量
    • init: {‘k-means++’, ‘random’}, callable 或传入的数组,默认为’k-means++'。指定如何初始化质心。'k-means++'使用一种启发式方法来选择初始质心,以加快收敛速度;'random’则随机选择初始质心
    • n_init: int,默认为10。运行算法的次数,每次使用不同的质心初始化。最终结果将是具有最低惰性的模型
    • max_iter: int,默认为300。单次运行的最大迭代次数

    结果:

  • cluster_centers_属性:cluster_centers_ 属性存储了每个聚类的中心点坐标

  • labels_属性:labels_ 存储了每个数据点的聚类标签

  • make_blobs方法是 Sklearn 库中 sklearn.datasets 模块提供的一个函数,用于生成一组二维或高维的数据簇。这些数据簇通常用于聚类算法的测试。具体来说:

    • 参数:
      • n_samples 参数指定了生成样本的数量
      • centers 参数定义了数据集中簇的中心数量
      • random_state 参数用于设置随机数生成器的种子,以便在不同运行之间获得相同的结果
    • 返回值:返回一个元组
      • X:一个形状为 (n_samples, n_features) 的数组,表示生成的样本数据。每个样本都是一行,特征列为样本的各个维度坐标
      • y:一个形状为 (n_samples,) 的数组,表示每个样本所属的簇标签(中心索引)。如果不需要这个标签,可以像示例中那样用 _ 忽略它
from sklearn.cluster import KMeans
import matplotlib.pyplot as plt
import numpy as np
data=np.random.randint(0,1000,(1000,2))
# print(data)
# plt.scatter(data[:,0],data[:,1])
# plt.show()
# model.fit(data)
n_class=7
model=KMeans(n_class)
model.fit(data)
# print(model.cluster_centers_)
# print(model.labels_)
# print(model.labels_==0)
# print(data[model.labels_==0])
for i in range(n_class):point=data[model.labels_==i]plt.scatter(point[:,0],point[:,1])
# plt.scatter(model.cluster_centers_[:,0],model.cluster_centers_[:,1])
plt.show()

4、总结

本文围绕无监督学习中的K-means算法展开介绍。无监督学习无需真实标签y,仅通过特征矩阵X训练模型,聚类是其代表,核心是将数据划分为“簇内差异小、簇外差异大”的簇,这与需标签的分类算法不同。

K-means作为流行聚类算法,目标是将数据划分为K个簇,以簇内样本到质心的距离平方和衡量差异并最小化。其关键概念包括“簇”(无交集的数据组)和“质心”(簇内样本均值)。算法步骤为:随机选K个初始质心,计算样本与质心距离并分配至最近簇,以簇内样本均值更新质心,迭代至质心稳定。

在工具方面,sklearn的KMeans类可实现该算法,关键参数有n_clusters(簇数)、init(质心初始化方式)等,结果可通过cluster_centers_(质心坐标)和labels_(样本聚类标签)获取。文中还给出代码示例,通过生成随机数据、建模聚类并可视化,展示了K-means的实际应用过程。

http://www.dtcms.com/a/318603.html

相关文章:

  • 古多倍体化对被子植物适应性进化的遗传贡献--文献精度154
  • 本地部署 SQLite 数据库管理工具 SQLite Browser ( Web ) 并实现外部访问
  • 根据经纬度(从nc格式环境数据文件中)提取环境因子
  • RabbitMQ面试精讲 Day 12:镜像队列与Quorum队列对比
  • PCL 平面特征点提取
  • 2 SpringBoot项目对接单点登录说明
  • C语言控制语句练习题3
  • 数据结构与算法
  • 嵌入式 - 数据结构:栈和队列
  • [Oracle] ROUND()函数
  • 软件架构:系统结构的顶层设计与战略约束
  • 【前端】Vite中import.meta功能详解
  • 【多模态微调】【从0开始】Qwen2-VL + llamafactory
  • 小杰python高级(one day)——numpy库
  • 应急响应-windows篇
  • Spring选择哪种方式代理?
  • 12、Docker Compose 安装 Redis
  • CGAL Kernel 和 Traits 类深度解析:从官方教程到实践应用
  • 疯狂星期四文案网第30天运营日记
  • 从Token到序列:阿里GSPO算法如何让大模型训练更稳、更强?
  • CubeFS存储(一)
  • 16-DS18B20-±0.5℃精度-12bitADC--55°C ~ +125°C
  • ubuntu server 工业环境部署手册[2025-08-06]
  • ⭐CVPR 文本到 3D 场景生成新突破:Prometheus 框架解析
  • http请求结构体解析
  • 【C++】二叉树进阶
  • 人工智能大数据模型驱动企业创新
  • 商用密码应用安全性评估法律法规的重要性及演变过程
  • 力扣-15.三数之和
  • 五、Istio管理网格外部服务