当前位置: 首页 > news >正文

监督分类——最小距离分类、最大似然分类、支持向量机

本文将详细介绍三种常见的监督分类方法:最小距离分类器最大似然分类器支持向量机(SVM)。每种方法都会包括原理、数学公式、具体例子和Python代码(含原图及分类结果可视化)。


1. 最小距离分类器(Minimum Distance Classifier)

原理

最小距离分类器是一种基于距离度量的简单分类方法。它将每个样本与各类别的均值(中心)计算欧氏距离,样本分配给距离最近的类别。适用于各类别内部方差相等且协方差为零的情况。

数学公式

对于样本 ( x ) 和第 ( i ) 类均值:
di(x)=(x−μi)T(x−μi) d_i(x) = \sqrt{(x-\mu_i)^T(x-\mu_i)} di(x)=(xμi)T(xμi)
样本 ( x ) 属于距离最近的类别 i,即:
i∗=arg⁡min⁡idi(x) i^* = \arg\min_{i} d_i(x) i=argimindi(x)

Python代码示例

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import load_breast_cancer
from sklearn.decomposition import PCA# 加载数据,用的是乳腺癌数据集
data = load_breast_cancer()
X = data.data
y = data.target# 用PCA降维到二维,便于可视化
pca = PCA(n_components=2)
X2 = pca.fit_transform(X)# 计算每一类的均值
mu0 = X2[y == 0].mean(axis=0)
mu1 = X2[y == 1].mean(axis=0)def min_distance_classifier(X, mus):dists = np.array([np.linalg.norm(X - mu, axis=1) for mu in mus])return np.argmin(dists, axis=0)pred = min_distance_classifier(X2, [mu0, mu1])# 可视化
fig, axes = plt.subplots(1, 2, figsize=(11, 4))
axes[0].scatter(X2[:, 0], X2[:, 1], c=y, cmap='bwr', label='True')
axes[0].set_title('Original')
axes[0].set_xlabel('PC1')
axes[0].set_ylabel('PC2')axes[1].scatter(X2[:, 0], X2[:, 1], c=pred, cmap='bwr')
# axes[1].scatter([mu0[0], mu1[0]], [mu0[1], mu1[1]], c=['red', 'blue'], marker='*', s=200, label='Mean')
axes[1].set_title('Minimum Distance Classification Result')
axes[1].set_xlabel('PC1')
axes[1].set_ylabel('PC2')
axes[1].legend()
plt.tight_layout()
plt.show()

结果:
在这里插入图片描述


2. 最大似然分类器(Maximum Likelihood Classifier)

原理

最大似然分类器基于贝叶斯判别原理。对于每个样本,计算其属于各类别的概率密度(通常假设高斯分布),并结合先验概率,选取后验概率最大的类别。

数学公式

后验概率:
p(ωi∣x)∝p(x∣ωi)P(ωi) p(\omega_i|x) \propto p(x|\omega_i)P(\omega_i) p(ωix)p(xωi)P(ωi)
如果各类别先验相同,则只需比较似然项 ( p(x|\omega_i) )。常见情况下,假设各类别为高斯分布:
p(x∣ωi)=1(2π)d/2∣Σi∣1/2exp⁡(−12(x−μi)TΣi−1(x−μi)) p(x|\omega_i) = \frac{1}{(2\pi)^{d/2}|\Sigma_i|^{1/2}} \exp\left(-\frac{1}{2}(x - \mu_i)^T \Sigma_i^{-1}(x - \mu_i)\right) p(xωi)=(2π)d/2Σi1/21exp(21(xμi)TΣi1(xμi))

Python代码示例

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import load_breast_cancer
from sklearn.decomposition import PCA
from scipy.stats import multivariate_normaldata = load_breast_cancer()
X = data.data
y = data.target# PCA降到二维
pca = PCA(n_components=2)
X2 = pca.fit_transform(X)# 估计高斯分布参数
mu0, cov0 = X2[y == 0].mean(axis=0), np.cov(X2[y == 0], rowvar=False)
mu1, cov1 = X2[y == 1].mean(axis=0), np.cov(X2[y == 1], rowvar=False)def ml_classifier(X, params):probs = [multivariate_normal(mean=mu, cov=cov).pdf(X) for mu, cov in params]return np.argmax(np.stack(probs, axis=1), axis=1)pred = ml_classifier(X2, [(mu0, cov0), (mu1, cov1)])fig, axes = plt.subplots(1, 2, figsize=(11, 4))
axes[0].scatter(X2[:, 0], X2[:, 1], c=y, cmap='bwr')
axes[0].set_title('Original Data (PCA Projection)')
axes[0].set_xlabel('PC1')
axes[0].set_ylabel('PC2')axes[1].scatter(X2[:, 0], X2[:, 1], c=pred, cmap='bwr')
axes[1].set_title('Maximum Likelihood Classification Result')
axes[1].set_xlabel('PC1')
axes[1].set_ylabel('PC2')
plt.tight_layout()
plt.show()

结果:
在这里插入图片描述


3. 支持向量机(SVM)

原理

SVM是一种判别式模型,通过寻找一个最优超平面,将不同类别样本分开,并最大化两类之间的间隔。对于线性可分情况,目标是:
min⁡w,b12∥w∥2 \min_{w,b} \frac{1}{2} \|w\|^2 w,bmin21w2
约束条件:
yi(wTxi+b)≥1 y_i(w^T x_i + b) \geq 1 yi(wTxi+b)1
对于非线性情况,可通过核函数映射到高维空间。

Python代码示例

用scikit-learn的SVM对两类数据进行分类并可视化决策边界。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import load_breast_cancer
from sklearn.decomposition import PCA
from sklearn.svm import SVCdata = load_breast_cancer()
X = data.data
y = data.target# PCA降维
pca = PCA(n_components=2)
X2 = pca.fit_transform(X)clf = SVC(kernel='linear')
clf.fit(X2, y)
pred = clf.predict(X2)def plot_decision_boundary(clf, X, y, ax):x_min, x_max = X[:, 0].min()-1, X[:, 0].max()+1y_min, y_max = X[:, 1].min()-1, X[:, 1].max()+1xx, yy = np.meshgrid(np.linspace(x_min, x_max, 300), np.linspace(y_min, y_max, 300))Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])Z = Z.reshape(xx.shape)ax.contourf(xx, yy, Z, alpha=0.3, cmap='bwr')ax.scatter(X[:, 0], X[:, 1], c=y, cmap='bwr', edgecolors='k')ax.set_title('SVM Classification Result')ax.set_xlabel('PC1')ax.set_ylabel('PC2')fig, axes = plt.subplots(1, 2, figsize=(11, 4))
axes[0].scatter(X2[:, 0], X2[:, 1], c=y, cmap='bwr')
axes[0].set_title('Original Data (PCA Projection)')
axes[0].set_xlabel('PC1')
axes[0].set_ylabel('PC2')plot_decision_boundary(clf, X2, y, axes[1])
plt.tight_layout()
plt.show()

结果:
在这里插入图片描述


http://www.dtcms.com/a/338777.html

相关文章:

  • Spring Boot 敏感词过滤组件实现:基于DFA算法的高效敏感词检测与替换
  • BROADCHIP广芯电子在各类电子产品的方案与应用
  • 3、栈和队列
  • Ansible 配置并行 - 项目管理笔记
  • 零知开源——基于STM32F407VET6与GY-271三轴地磁传感器的高精度电子罗盘设计与实现
  • TensorFlow 面试题及详细答案 120道(11-20)-- 操作与数据处理
  • Auto-CoT:大型语言模型的自动化思维链提示技术
  • OpenCV快速入门(C++版)
  • 常见的 Bash 命令及简单脚本
  • 从 0 到 1 开发校园二手交易系统:飞算 JavaAI 全流程实战
  • 无畏契约手游上线!手机远控模拟器畅玩、抢先注册稀有ID!
  • Windows/Centos 7下搭建Apache服务器
  • MySQL-分库分表(Mycat)
  • 第一章 认识单片机
  • 出现了常规系统错误: Unable to push signed certificate to host 192.168.1.2
  • 从数据表到退磁:Ansys Maxwell中N48磁体磁化指南
  • LINUX 软件编程 -- 线程
  • 决策树的学习(二)
  • MCP(模型上下文协议):是否是 AI 基础设施中缺失的标准?
  • jsPDF 不同屏幕尺寸 生成的pdf不一致,怎么解决
  • Ansible 中的文件包含与导入机制
  • java17学习笔记-Deprecate the Applet API for Removal
  • C语言基础:(十八)C语言内存函数
  • 连接远程服务器上的 jupyter notebook,解放本地电脑
  • 计算机毕设推荐:痴呆症预测可视化系统Hadoop+Spark+Vue技术栈详解
  • 生成式AI的能力边界与职业重构:从“百科实习生“到人机协作增强器
  • 人工智能学派简介
  • 当宠物机器人装上「第六感」:Deepoc 具身智能如何重构宠物机器人照看逻辑
  • Python字符串变量插值深度解析:从基础到高级工程实践
  • 安装DDNS-go