当前位置: 首页 > news >正文

大连理工大学选修课——机器学习笔记(5):EMK-Means

EM&K-Means

无监督学习

  • 什么是无监督学习

    • 模型从无标签的数据中自动发现隐藏的模式或结构
    • 聚类是最常用的方法
  • 为什么要研究无监督学习

    • 标记样本代价太大
    • 分类模式不断变化,标记易过时
  • 数据的分布

    • 参数方法
      • 高斯分布、伯努利分布、多指分布等
    • 非参数方法
      • 局部模型,在足够小的区域做分布模型假设
    • 半参数方法
      • 数据在空间聚集成不同的分组/簇
      • 簇内的模型分布相同,簇之间可以不同
  • 混合密度

    p ( x ) = ∑ i = 1 k p ( x ∣ G i ) P ( G i ) p(x)=\sum_{i=1}^kp(x|G_i)P(G_i) p(x)=i=1kp(xGi)P(Gi)

    • 对不同的区域采用不同的分组
    • p(x|Gi):成分密度;P(Gi):混合比例;共k个分组。

    实践中常采用混合分布模型:

    • 不同的类具有不同的概率模型,采用不同的协方差矩阵
    • 概率参数可以通过最大似然估计计算。
  • 无监督学习的问题描述

    • 没有类别信息
    • 完成以下两个任务
      • 估计类别的标记
      • 估计给定实例所属簇的概率参数
  • 无监督学习的方法

    • 聚类
      • 根据数据对象的相似性大小,把数据分为不同的类
      • 常用作分类的预处理
  • 常用的聚类分析方法

    • 划分方法
      • 对于指定K个组的数据分组任务通过迭代的方法来实现
        • 每次迭代,把数据集划分为K个分组,每一轮的划分质量都比上一轮更好
        • 基于距离准则
        • 采用启发式算法,得到局部最优解
      • 常用方法
        • K-means
  • 其它聚类方法

    • 层次方法
    • 基于密度的方法
    • 谱聚类

K-Means

从一个实例问题讲起

  • 色彩量化问题

    • 从连续空间向离散空间映射,例如,将24位真彩色(1600万种色)映射到256色彩空间
  • 问题

    • 如何保证图像清晰度
    • 如何让失真度尽可能小
  • 处理思路

    • 按照色彩相似度,把色彩分为256个簇
    • 通过聚类实现
  • K-Means聚类算法过程

    • 色彩空间为三维,每个像素点为三维向量
    • 随机选择K个像素的色彩向量作为聚类初值
    • 初值为聚类中心mik = 256,按照与聚类中心的相似程度,把所有像素分为K个簇。
  • 分组方法:最小距离法

    与聚类中心距离近(相似度大)的像素聚成一个簇

    ∣ ∣ x t − m i ∣ ∣ = m i n ∣ ∣ x t − m j ∣ ∣ ||xt − mi|| = min||xt − mj|| ∣∣xtmi∣∣ =min∣∣xtmj∣∣

  • 数据重构

    • 重构误差公式

      ∗ E ( { m i } i = 1 k ∣ X ) = ∑ l ∑ i b i l ∣ ∣ x t − m i ∣ ∣ 2 ∗ *E(\{m_i\}_{i = 1}^k|X) = ∑_l∑_ib_i^l||x^t − m_i||^2* E({mi}i= 1kX)=libil∣∣xtmi2

    • 对于每个数据点,找到最近的聚类中心

    • 误差计算:计算其与所属的聚类中心的距离平方相加,作为误差。

  • 极小化误差函数

    • 通过求导可知,各个分组的均值向量是误差最小聚类中心。
  • 重复进行迭代,直至聚类中心不再改变,或者低于某一个阈值。

在这里插入图片描述

K-medoids(K-中心聚类)

  • K-Means的初值是实际存在的样本点。
    • 但迭代过程的聚类中心是虚拟的样本点(Means)
  • K-Medoids就是在聚类过程中,仍然选择真实的样本点。
    • 选择与Means最近的样本点为代表点。

聚类算法的评价

CHI指标

s ( k ) = t r ( B k ) t r ( W k ) m − k k − 1 s(k)=\frac{tr(B_k)}{tr(W_k)}\frac{m-k}{k-1} s(k)=tr(Wk)tr(Bk)k1mk

  • m:训练集样本数

  • k:簇数目

  • BK:簇间的协方差矩阵

  • WK:簇内协方差矩阵

  • tr:矩阵的迹

    S越大,聚类效果越好

轮廓系数

S ( i ) = b ( i ) − a ( i ) m a x { a ( i ) , b ( i ) } S(i)=\frac{b(i)-a(i)}{max\{a(i),b(i)\}} S(i)=max{a(i),b(i)}b(i)a(i)

  • a ( i ) a(i) a(i): i i i向量到簇内其它所有点的平均距离。

  • b ( i ) b(i) b(i): i i i向量到簇外其它所有点的最小距离。

  • 介于 [ − 1 , 1 ] [-1,1] [1,1]

  • 将所有点的轮廓系数求平均,是聚类结果的总轮廓系数。

    S越大,聚类效果越好

K-Means优缺点

  • 优点
    • 原理简单,实现容易,易收敛
    • 聚类效果较优
    • 算法可解释度强
  • 缺点
    • 对于非凸数据集难收敛
    • 对于不平衡数据效果不佳
    • 聚类结果为局部最优
    • 噪声敏感

处理大数据

K-Means算法复杂度与维度成正比

数据规模很大,维度很高时,算法会很慢

解决方案

抽样

Mini Batch K-Means

  • 按比例抽取小规模样本做k-means
  • 多次抽样,检查聚类效果

提高算法效率

  • 距离优化算法
    • 设法减少计算距离的次数,不要每个点都计算一边
  • elkan K-Means
    • 利用两边之和大于第三边,两边之差小于第三边

    • 例如: d ( x , c 1 ) = 5 , d ( c 1 , c 2 ) = 10 d(x,c_1)=5,d(c_1,c_2)=10 dx,c1)=5,d(c1,c2)=10

      则不用计算 d ( x , c 2 ) d(x,c_2) d(x,c2),可知 d ( x , c 2 ) d(x,c_2) d(x,c2)大于等于5。

EM算法

  • 改变数据划分的方法

    例如,采用完全版本的贝叶斯学习和预测思想

  • 模型的输出从硬标签改为软标签。

    直接输入后验概率(连续变量),称为软标签

过程简介

假设数据由k个高斯分布混合生成,每个高斯分布表示一个潜在的子群或簇。我们不知道样本点x属于哪个簇,因此需要 P ( G i ) P(G_i) P(Gi)表示该点属于某个簇的概率。

目标:估计模型参数 m i , S i , P ( G i ) m_i,S_i,P(G_i) mi,Si,P(Gi)

挑战:存在隐变量Z(样本所属簇的标签),直接最大化似然函数困难。

似然函数:

  • 不完全似然(未观测到隐变量Z(数据点所属的高斯分布))

    L ( θ ∣ X ) = ∑ i l o g ∑ j = 1 k P ( G j ) ⋅ p ( x i ∣ G j ) L(\theta|X)=\sum_i log\sum_{j=1}^kP(G_j)\cdot p(x^i|G_j) L(θX)=ilogj=1kP(Gj)p(xiGj)

    P ( G i ) : P(G_i): P(Gi):第j个高斯分布的权重

    p ( x i ∣ G j ) p(x^i|G_j) p(xiGj):第j个高斯分布生成数据点 x i x^i xi的概率密度

    外层 ∑ \sum :连乘转加法,避免下溢

    内层 ∑ \sum :对所有可能的隐变量求和,表示 x i x^i xi可能由任意高斯分布生成。

    该式直接优化困难,无法求解我们需要的三个参数。

  • 完全数据似然(已经知道属于哪类):

    假设已经知道数据点所属的高斯分布,那么似然函数就不需要 P ( G i ) P(G_i) P(Gi),可以简化为下式:

    L C = ( θ ∣ X , Z ) = ∑ i l o g p ( x i , z i ∣ θ ) L_C=(\theta|X,Z)=\sum_ilog\ p(x^i,z^i|\theta) LC=(θX,Z)=ilog p(xi,ziθ)

    由于对数内部无求和,可求解。

    现实情况可能为不完全似然,即不知道样本属于哪类,因此需要通过EM方法迭代求解。

  • 初值

    • 高斯分布的参数
      • **均值向量 m i m_i mi😗*每个高斯分布的均值(簇中心)
      • **协方差矩阵 ∑ i ( S i ) \sum_i(S_i) i(Si):**描述簇的形状和分布
      • 混合系数 P ( G i ) P(G_i) P(Gi):每个高斯分布的权重
  • E步

    目标:根据当前参数,计算每个 x i x^i xi属于各个 G i G_i Gi的概率。

    计算隐变量的后验概率(数据点x属于第i个高斯分布的概率)

    γ i ( x ) = P ( G i ) ⋅ N ( x ∣ m i , ∑ i ) ∑ j = 1 k P ( G j ) ⋅ N ( x ∣ m j , ∑ j ) \gamma_i(x)=\frac{P(G_i)\cdot N(x|m_i,\sum_i)}{\sum_{j=1}^kP(G_j)\cdot N(x|m_j,\sum_j)} γi(x)=j=1kP(Gj)N(xmj,j)P(Gi)N(xmi,i)

    N为高斯分布概率密度函数

    数学形式:

    在这里插入图片描述

  • M步

    目标:基于E步的隐变量分布,更新三个参数。

    更新参数,最大化对数似然函数

    在这里插入图片描述

    • 混合系数 P ( G i ) P(G_i) P(Gi)

      P ( G i ) = ∑ x γ i ( x ) N P(G_i)=\frac{\sum_x\gamma_i(x)}{N} P(Gi)=Nxγi(x)

      (N为总样本数)

  • 迭代与收敛:

    • 循环执行 E 步和 M 步,直至似然对数变化小于阈值或收敛:

      L ( θ ∣ X ) = ∑ l o g ∑ j = 1 k P ( G j ) ⋅ p ( x i ∣ G j ) L(\theta|X)=\sum log\sum_{j=1}^kP(G_j)\cdot p(x^i|G_j) L(θX)=logj=1kP(Gj)p(xiGj)

相关文章:

  • 《软件设计师》复习笔记(10.1)——算法特性、时间复杂度、递归、分治、动态规划
  • flutter 专题 六十四 在原生项目中集成Flutter
  • 应对过度处方挑战:为药物推荐任务微调大语言模型(Xiangnan He)
  • 4.29[Q]NLP-Exp2
  • pycharm导入同目录下文件未标红但报错ModuleNotFoundError
  • Locate 3D:Meta出品自监督学习3D定位方法
  • 03_Mybatis-Plus LambadaQueryWrapper 表达式爆空指针异常
  • 大数据应用开发和项目实战-Seaborn
  • Python-pandas-操作csv文件(读取数据/写入数据)及csv语法详细分享
  • python + segno 生成个人二维码
  • 模拟频谱分析仪(Linux c++ Qt)
  • Qt:(创建项目)
  • PageOffice在线打开word文件,并实现切换文件
  • 【RustDesk 】中继1:压力测试 Python 版 RustDesk 中继服务器
  • 阿里云 ECS 服务器进阶指南:存储扩展、成本优化与架构设计
  • WPF之RadioButton控件详解
  • AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建
  • 【Python学习路线】零基础到项目实战系统
  • 论文阅读:2024 ICML In-Context Unlearning: Language Models as Few-Shot Unlearners
  • 模型部署技巧(一)
  • 向左繁华都市,向右和美乡村,嘉兴如何打造城乡融合发展样本
  • 视频丨中国海警位中国黄岩岛领海及周边区域执法巡查
  • 人物|德国新外长关键词:总理忠实盟友、外交防务专家、大西洋主义者
  • 孙磊已任中国常驻联合国副代表、特命全权大使
  • 圆桌|如何应对特朗普政府的关税霸凌?一种联合国视角的思考
  • 北京银行一季度净赚超76亿降逾2%,不良贷款率微降