当前位置: 首页 > news >正文

机器学习中的朴素贝叶斯(Naive Bayes)模型

1. 用实例来理解朴素贝叶斯

下面用具体的数据来演示垃圾邮件 vs 正常邮件的概率计算


假设我们有一个小型邮件数据集

邮件内容类别(垃圾/正常)
“免费 赢取 大奖”垃圾
“免费 参加会议”正常
“中奖 点击 链接”垃圾
“明天 开会”正常
“赢取 免费 礼品”垃圾

Step 1: 统计基础概率

  • 总邮件数:5 封
    • 垃圾邮件:3 封 → P(垃圾) = 3/5 = 0.6
    • 正常邮件:2 封 → P(正常) = 2/5 = 0.4

Step 2: 统计每个词的条件概率

计算每个词在垃圾邮件正常邮件中出现的概率:
(例如:P("免费"|垃圾) = 垃圾邮件中出现“免费”的概率)

单词在垃圾邮件中出现的次数P(单词|垃圾)在正常邮件中出现的次数P(单词|正常)
免费3 封(所有垃圾邮件)3/3 = ​1.01 封(“免费 参加会议”)1/2 = ​0.5
中奖1 封1/3 ≈ ​0.330 封0/2 = ​0.0
赢取2 封2/3 ≈ ​0.670 封0/2 = ​0.0
会议0 封0/3 = ​0.01 封1/2 = ​0.5
明天0 封0/3 = ​0.01 封1/2 = ​0.5

:如果某个词在某一类中未出现(概率=0),会导致整个乘积为0。实际中会使用拉普拉斯平滑(+1)避免此问题,这里暂不展开。


Step 3: 对新邮件进行分类

假设新邮件内容是:“免费 中奖”,判断它是垃圾还是正常邮件。

计算垃圾邮件概率

P(垃圾∣"免费 中奖")∝P(垃圾)×P("免费"∣垃圾)×P("中奖"∣垃圾)=0.6×1.0×0.33≈0.198 P(垃圾|\text{"免费 中奖"}) \propto P(垃圾) \times P(\text{"免费"}|垃圾) \times P(\text{"中奖"}|垃圾) \\ = 0.6 \times 1.0 \times 0.33 \approx \mathbf{0.198} P(垃圾"免费 中奖")P(垃圾)×P("免费"垃圾)×P("中奖"垃圾)=0.6×1.0×0.330.198

计算正常邮件概率

P(正常∣"免费 中奖")∝P(正常)×P("免费"∣正常)×P("中奖"∣正常)=0.4×0.5×0.0=0.0 P(正常|\text{"免费 中奖"}) \propto P(正常) \times P(\text{"免费"}|正常) \times P(\text{"中奖"}|正常) \\ = 0.4 \times 0.5 \times 0.0 = \mathbf{0.0} P(正常"免费 中奖")P(正常)×P("免费"正常)×P("中奖"正常)=0.4×0.5×0.0=0.0

问题:正常邮件概率=0,因为“中奖”从未在正常邮件中出现过。实际中会调整概率(见后文修正)。

结论
  • 垃圾邮件概率:0.198
  • 正常邮件概率:0.0
    → 判定为垃圾邮件

修正:拉普拉斯平滑(避免概率=0)

对未出现的词,给所有计数+1(避免零概率):

  • 修正后 P("中奖"|正常) = (0+1)/(2+总唯一词数)
    (假设总唯一词数=5,则 P("中奖"|正常) = 1/7 ≈ 0.14

修正后的正常邮件概率:
P(正常∣"免费 中奖")∝0.4×0.5×0.14≈0.028P(正常|\text{"免费 中奖"})\propto 0.4 \times 0.5 \times 0.14 \approx \mathbf{0.028}P(正常"免费 中奖")0.4×0.5×0.140.028
此时垃圾邮件概率(0.198)仍大于正常邮件概率(0.028),依然判定为垃圾邮件。


关键点总结

  1. P(类别):类别的初始概率(如垃圾邮件占60%)。
  2. P(单词|类别):某类邮件中某个单词出现的概率。
  3. 连乘:假设所有词独立,概率相乘得到联合概率。
  4. 平滑处理:避免未出现的词导致概率归零。

这样计算后,选择概率更大的类别作为预测结果!

2.用朴素贝叶斯解释下面的问题

假设有一种病叫做“贝叶死”,它的发病率是万分之一,即10000 人中会有1个人得病。现有一种测试可以检验一个人是否得病的准确率是99.9%,误报率(假阳)是0.1% 那么,如果一个人被查出来患有“叶贝死”,实际上患有的可能性有多大?

问题重述(“贝叶死”检测问题)

  • 发病率(先验概率)
    P(病)=110000=0.0001P(\text{病}) = \frac{1}{10000} = 0.0001P()=100001=0.0001
    P(健康)=1−P(病)=0.9999P(\text{健康}) = 1 - P(\text{病}) = 0.9999P(健康)=1P()=0.9999

  • 检测准确率

    • 真阳性(True Positive):已知患病时,检测为阳性的概率:99.9% → P(阳性∣病)=0.999P(\text{阳性}|\text{病}) = 0.999P(阳性)=0.999
    • 假阳性(False Positive):已知健康时,检测为阳性的概率:0.1% → P(阳性∣健康)=0.001P(\text{阳性}|\text{健康}) = 0.001P(阳性健康)=0.001
  • 问题
    如果一个人检测结果为阳性,实际患病的概率是多少?即求 P(病∣阳性)P(\text{病}|\text{阳性})P(阳性)


用朴素贝叶斯推导

根据贝叶斯定理:
P(病∣阳性)=P(阳性∣病)⋅P(病)P(阳性) P(\text{病}|\text{阳性}) = \frac{P(\text{阳性}|\text{病}) \cdot P(\text{病})}{P(\text{阳性})} P(阳性)=P(阳性)P(阳性)P()
其中,P(阳性)P(\text{阳性})P(阳性)是检测为阳性的总概率,包括真阳性假阳性
P(阳性)=P(阳性∣病)⋅P(病)+P(阳性∣健康)⋅P(健康) P(\text{阳性}) = P(\text{阳性}|\text{病}) \cdot P(\text{病}) + P(\text{阳性}|\text{健康}) \cdot P(\text{健康}) P(阳性)=P(阳性)P()+P(阳性健康)P(健康)


具体计算

  1. 计算分子(真阳性部分):
    P(阳性∣病)⋅P(病)=0.999×0.0001=0.0000999 P(\text{阳性}|\text{病}) \cdot P(\text{病}) = 0.999 \times 0.0001 = 0.0000999 P(阳性)P()=0.999×0.0001=0.0000999

  2. 计算分母(所有阳性情况):
    P(阳性)=0.999×0.0001+0.001×0.9999=0.0000999+0.0009999=0.0010998 P(\text{阳性}) = 0.999 \times 0.0001 + 0.001 \times 0.9999 = 0.0000999 + 0.0009999 = 0.0010998 P(阳性)=0.999×0.0001+0.001×0.9999=0.0000999+0.0009999=0.0010998

  3. 最终概率
    P(病∣阳性)=0.00009990.0010998≈0.0908(约9.08%) P(\text{病}|\text{阳性}) = \frac{0.0000999}{0.0010998} \approx 0.0908 \quad \text{(约9.08\%)} P(阳性)=0.00109980.00009990.0908(约9.08%


直观解释

  • 在10000人中

    • 1人患病,且检测为阳性的概率:1×0.999≈11 \times 0.999 \approx 11×0.9991 人(真阳性)。
    • 9999人健康,但检测为阳性的概率:9999×0.001≈109999 \times 0.001 \approx 109999×0.00110 人(假阳性)。
  • 所有阳性结果:共 1+10=111 + 10 = 111+10=11 人。

  • 其中真正患病:仅1人。

因此,检测为阳性时,实际患病的概率是:
111≈9.09%(与公式结果一致) \frac{1}{11} \approx 9.09\% \quad \text{(与公式结果一致)} 1119.09%(与公式结果一致)


结论

即使检测准确率高达99.9%,由于发病率极低(万分之一),假阳性人数远多于真阳性
最终:
P(病∣阳性)≈9.1% P(\text{病}|\text{阳性}) \approx \mathbf{9.1\%} P(阳性)9.1%
这意味着,检测为阳性的人中,超过90%是误诊!


背后的贝叶斯思想

  1. 先验概率很重要:发病率低时,即使检测准确率高,误诊仍可能主导结果。
  2. 不要忽略基础比率(Base Rate Neglect):人们常忽视先验概率,只关注检测的“准确性”。
  3. 实际应用:对罕见病的筛查,需结合多次检测或更高特异性的方法降低误诊率。

这就是贝叶斯定理的经典案例——“阳性结果≠患病”

3.朴素贝叶斯公式总结

1. 公式分解

贝叶斯定理的完整形式是:
P(y∣X)=P(y)∏P(xi∣y)P(X) P(y|X) = \frac{P(y) \prod P(x_i|y)}{P(X)} P(yX)=P(X)P(y)P(xiy)
但 $ P(X) $ 对所有类别 $ y $ 都相同,因此比较时只需计算分子:
P(y∣X)∝P(y)∏P(xi∣y) P(y|X) \propto P(y) \prod P(x_i|y) P(yX)P(y)P(xiy)

  • P(y∣X)P(y|X)P(yX):在已知特征 X=(x1,x2,...,xn)X = (x_1, x_2, ..., x_n)X=(x1,x2,...,xn) 的情况下,样本属于类别 yyy 的概率(后验概率)。
  • P(y)P(y)P(y):类别 yyy先验概率(即数据中类别 yyy 出现的概率)。
  • P(xi∣y)P(x_i|y)P(xiy):在类别 yyy 下,特征 xix_ixi 出现的概率(似然概率)。
  • ∝\propto:表示“正比于”,即我们可以忽略分母 P(X)P(X)P(X)(因为对所有类别 yyy 都一样,不影响比较)。

2. 直观理解

假设我们要判断一封邮件是不是垃圾邮件(y=垃圾邮件y = \text{垃圾邮件}y=垃圾邮件y=正常邮件y = \text{正常邮件}y=正常邮件),邮件的特征 XXX 是其中的单词(如“免费”“中奖”等)。

朴素贝叶斯的计算逻辑是:

  1. 先看数据中垃圾邮件的比例P(y)P(y)P(y))。
  2. 再看垃圾邮件中每个单词出现的概率P(xi∣y)P(x_i|y)P(xiy))。
  3. 假设所有单词相互独立(“朴素”假设),计算它们的联合概率(即乘积)。
  4. 比较不同类别的概率,选择概率最大的作为预测结果。

3. 具体例子

数据示例
邮件内容类别(垃圾/正常)
“免费 赢取 大奖”垃圾
“免费 参加会议”正常
“中奖 点击 链接”垃圾
“明天 开会”正常
“赢取 免费 礼品”垃圾
计算概率
  • 先验概率

    • P(垃圾)=35=0.6P(\text{垃圾}) = \frac{3}{5} = 0.6P(垃圾)=53=0.6
    • P(正常)=25=0.4P(\text{正常}) = \frac{2}{5} = 0.4P(正常)=52=0.4
  • 条件概率(单词在垃圾邮件中的概率):

    • P(免费∣垃圾)=33=1.0P(\text{免费}|\text{垃圾}) = \frac{3}{3} = 1.0P(免费垃圾)=33=1.0
    • P(中奖∣垃圾)=13≈0.33P(\text{中奖}|\text{垃圾}) = \frac{1}{3} \approx 0.33P(中奖垃圾)=310.33
    • P(赢取∣垃圾)=23≈0.67P(\text{赢取}|\text{垃圾}) = \frac{2}{3} \approx 0.67P(赢取垃圾)=320.67
预测新邮件

假设新邮件内容是 “免费 中奖”,判断它是垃圾邮件还是正常邮件。

垃圾邮件的概率

P(垃圾∣免费, 中奖)∝P(垃圾)×P(免费∣垃圾)×P(中奖∣垃圾)=0.6×1.0×0.33≈0.198 P(\text{垃圾}|\text{免费, 中奖}) \propto P(\text{垃圾}) \times P(\text{免费}|\text{垃圾}) \times P(\text{中奖}|\text{垃圾}) \\ = 0.6 \times 1.0 \times 0.33 \approx 0.198 P(垃圾免费中奖)P(垃圾)×P(免费垃圾)×P(中奖垃圾)=0.6×1.0×0.330.198

正常邮件的概率

P(正常∣免费, 中奖)∝P(正常)×P(免费∣正常)×P(中奖∣正常)=0.4×0.5×0.0=0.0(需拉普拉斯平滑调整) P(\text{正常}|\text{免费, 中奖}) \propto P(\text{正常}) \times P(\text{免费}|\text{正常}) \times P(\text{中奖}|\text{正常}) \\ = 0.4 \times 0.5 \times 0.0 = 0.0 \quad \text{(需拉普拉斯平滑调整)} P(正常免费中奖)P(正常)×P(免费正常)×P(中奖正常)=0.4×0.5×0.0=0.0(需拉普拉斯平滑调整)

结论

垃圾邮件的概率(0.198) > 正常邮件的概率(0.0),因此判定为垃圾邮件


4. 关键点总结

  1. 朴素贝叶斯假设:所有特征 xix_ixi 相互独立(“朴素”)。
  2. 计算方式
    • 先计算类别的先验概率 P(y)P(y)P(y)
    • 再计算每个特征在类别下的条件概率 P(xi∣y)P(x_i|y)P(xiy)
    • 联合概率 = 先验概率 × 所有特征的条件概率。
  3. 预测:选择使 P(y∣X)P(y|X)P(yX) 最大的类别 yyy

5. 应用场景

  • 文本分类(垃圾邮件、情感分析)
  • 医学诊断(疾病预测)
  • 推荐系统(用户兴趣分类)

这个公式虽然简单,但在实际应用中非常强大! 🚀

4.朴素贝叶斯分类器

  • 常用于文本分类,文本过滤、情感预测、推荐系统等,尤其是对于英文等语言来说,分类效果很好

  • 准备阶段,需要确定特征属性,属性值以及label => 训练集

  • 训练阶段,输入是特征属性和训练样本,输出是分类器,主要工作是计算每个类别在训练样本中的出现频率及每个特征属性划分对每个类别的条件概率

  • 应用阶段,使用分类器对新数据进行分类

在这里插入图片描述

http://www.dtcms.com/a/278971.html

相关文章:

  • AI日报 - 2025年07月14日
  • 认识下计算机视觉中的人脸识别
  • 网络准入控制系统的作用解析,2025年保障企业入网安全第一道防线
  • 【邀请函】网易灵动露天矿山具身智能技术发布会,7月26日上海见
  • 【笔记】chrome 无法打开特定协议或访问特定协议时卡死
  • AI香烟检测实战:YOLO11模型训练全过程解析
  • 多尺度频率辅助类 Mamba 线性注意力模块(MFM),融合频域和空域特征,提升多尺度、复杂场景下的目标检测能力
  • Docker 拉取镜像并离线迁移至云桌面指南(以Redis为例)
  • 【API测试】Apifox、Apipost、Postman测试工具详解,Mock介绍
  • docker私有仓库
  • Java 树形结构、层级结构数据构建
  • 密码学中立方攻击的另类应用
  • 力扣454.四数相加Ⅱ
  • idea删除的文件怎么找回
  • 【第一章编辑器开发基础第二节编辑器布局_1水平与垂直布局(1/4)】
  • git项目,有idea文件夹,怎么去掉
  • 【第一章编辑器开发基础第一节绘制编辑器元素_6滑动条控件(6/7)】
  • 衡石科技技术手册--仪表盘过滤控件详解
  • SpringBoot集成SAP,本地IDEA启动和Windows服务器部署
  • 第八章排序 选择题
  • 【HarmonyOS】元服务入门详解 (一)
  • 从“直觉抢答”到“深度思考”:大模型的“慢思考”革命,思维链、树、图如何让AI越来越像人?
  • 生产者消费者问题,详解(操作系统os)
  • 扩散生成基础原理(二)——DDPM概率去噪扩散模型
  • 1.2.1 面向对象详解——AI教你学Django
  • git 下载报错:fetch-pack: unexpected disconnect while reading sideband packet
  • 139-CNN-BiLSTM-Selfattention-ABKDE预测模型!
  • 深度学习基础:损失函数(Loss Function)全面解析
  • 搭建k8s高可用集群,“Unable to register node with API server“
  • LINUX714 自动挂载/nfs;物理卷