当前位置: 首页 > news >正文

朴素贝叶斯(Naive Bayes)算法详解

朴素贝叶斯(Naive Bayes)算法详解

朴素贝叶斯是机器学习中经典且广泛应用的分类算法,属于基于概率统计的生成式模型。它以贝叶斯定理为理论基础,通过“朴素”的条件独立性假设简化计算,在文本分类、垃圾邮件识别、情感分析等领域表现优异。

一、算法核心理论基础

1. 贝叶斯定理

贝叶斯定理是朴素贝叶斯的数学基石,用于描述两个条件概率之间的关系,公式如下:
P(A∣B)=P(B∣A)⋅P(A)P(B) P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} P(AB)=P(B)P(BA)P(A)
其中:

  • $ P(A|B) $:后验概率(事件B发生后,事件A发生的概率)
  • $ P(B|A) $:似然概率(事件A发生时,事件B发生的概率)
  • $ P(A) $:先验概率(事件A发生的初始概率)
  • $ P(B) $:证据概率(事件B发生的总概率,用于归一化)

2. 朴素的条件独立性假设

在分类问题中,设输入特征为 $ X = (x_1, x_2, …, x_n) $,类别为 $ Y $。朴素贝叶斯的核心假设是:给定类别时,所有特征之间相互独立。即:
P(X∣Y)=P(x1,x2,...,xn∣Y)=∏i=1nP(xi∣Y) P(X|Y) = P(x_1, x_2, ..., x_n|Y) = \prod_{i=1}^{n} P(x_i|Y) P(XY)=P(x1,x2,...,xnY)=i=1nP(xiY)
这一假设大幅简化了计算,避免了对高维特征联合概率的复杂估计,但也可能损失部分特征关联性信息。

3. 分类决策规则

对于新样本 $ X $,朴素贝叶斯通过计算其属于每个类别的后验概率,选择概率最大的类别作为预测结果:
Y^=arg⁡max⁡yP(Y=y)⋅∏i=1nP(xi∣Y=y) \hat{Y} = \arg\max_{y} P(Y=y) \cdot \prod_{i=1}^{n} P(x_i|Y=y) Y^=argymaxP(Y=y)i=1nP(xiY=y)
由于 $ P(X) $ 对所有类别均相同,分类时可忽略分母,仅比较分子即可。

二、算法流程

1. 训练阶段(参数估计)

  • 步骤1:计算先验概率
    统计每个类别在训练集中的出现频率:
    P(Y=y)=类别y的样本数总样本数 P(Y=y) = \frac{\text{类别}y\text{的样本数}}{\text{总样本数}} P(Y=y)=总样本数类别y的样本数

  • 步骤2:计算似然概率
    对每个特征 $ x_i $,统计其在每个类别下的条件概率:

    • 若 $ x_i $ 是离散特征:
      P(xi∣Y=y)=类别y中特征xi取值为v的样本数类别y的总样本数 P(x_i|Y=y) = \frac{\text{类别}y\text{中特征}x_i\text{取值为}v\text{的样本数}}{\text{类别}y\text{的总样本数}} P(xiY=y)=类别y的总样本数类别y中特征xi取值为v的样本数
    • 若 $ x_i $ 是连续特征:
      通常假设特征服从高斯分布,通过极大似然估计均值 $ \mu $ 和方差 $ \sigma^2 $,再计算概率密度:
      P(xi∣Y=y)=12πσy2exp⁡(−(xi−μy)22σy2) P(x_i|Y=y) = \frac{1}{\sqrt{2\pi\sigma_y^2}} \exp\left(-\frac{(x_i - \mu_y)^2}{2\sigma_y^2}\right) P(xiY=y)=2πσy21exp(2σy2(xiμy)2)
  • 步骤3:平滑处理(避免零概率问题)
    当某特征在某类别中未出现时,似然概率可能为0,导致整体乘积为0。解决方法:

    • 拉普拉斯平滑(离散特征):
      P(xi∣Y=y)=类别y中xi=v的样本数+1类别y的总样本数+k P(x_i|Y=y) = \frac{\text{类别}y\text{中}x_i=v\text{的样本数} + 1}{\text{类别}y\text{的总样本数} + k} P(xiY=y)=类别y的总样本数+k类别yxi=v的样本数+1
      其中 $ k $ 为特征 $ x_i $ 的可能取值数。

2. 预测阶段

对新样本 $ X $,计算其属于每个类别的后验概率(简化版):
P(Y=y∣X)∝P(Y=y)⋅∏i=1nP(xi∣Y=y) P(Y=y|X) \propto P(Y=y) \cdot \prod_{i=1}^{n} P(x_i|Y=y) P(Y=yX)P(Y=y)i=1nP(xiY=y)
选择概率最大的类别作为预测结果。

三、常见模型变种

根据特征类型和概率分布假设的不同,朴素贝叶斯可分为以下变种:

模型名称适用场景概率分布假设典型应用
高斯朴素贝叶斯连续特征特征服从高斯分布鸢尾花分类、房价预测
多项式朴素贝叶斯离散计数特征(如词频)特征服从多项式分布文本分类、文档主题识别
伯努利朴素贝叶斯二元特征(0/1取值)特征服从伯努利分布垃圾邮件识别(词是否出现)

四、优缺点分析

优点

  1. 计算高效:训练和预测时间复杂度低,适合大规模数据集和高维特征(如文本)。
  2. 易于实现:原理直观,参数估计简单,无需复杂迭代优化。
  3. 对小样本友好:通过平滑处理可在小数据集上稳定工作。
  4. 可解释性强:每个特征对分类的贡献可通过概率直观体现。

缺点

  1. 条件独立性假设局限:忽略特征间关联性,可能导致分类偏差(如“暴雨”和“洪水”的强关联被割裂)。
  2. 特征分布敏感:若实际分布与假设(如高斯分布)偏差较大,性能下降明显。
  3. 难以学习复杂模式:对非线性或高交互特征的建模能力较弱。

五、典型应用场景

  1. 文本分类:如垃圾邮件识别(关键词作为特征,判断“垃圾”或“正常”)、新闻主题分类。
  2. 情感分析:通过文本中的情感词(如“开心”“失望”)预测用户情绪(正面/负面)。
  3. 推荐系统:结合用户特征和物品特征,预测用户对物品的偏好。
  4. 医疗诊断:基于症状特征(如发烧、咳嗽)判断患病类型。

六、与其他算法的对比

算法核心思想优势场景劣势场景
朴素贝叶斯概率统计+独立性假设高维小样本、文本数据特征强关联数据
逻辑回归线性决策边界+对数几率特征关联较弱的数据非线性复杂关系数据
决策树特征分裂+规则生成非线性、特征交互强数据高维稀疏数据(如文本)

七、总结

朴素贝叶斯以其简单、高效、易扩展的特点,成为机器学习中的经典算法。尽管“朴素”的独立性假设存在局限性,但在文本处理等特征高维且关联性较弱的场景中,其性能往往优于复杂模型。实际应用中,需根据数据类型选择合适的变种(如高斯型、多项式型),并通过平滑处理提升稳定性。对于特征关联性强的任务,可结合特征工程或与其他算法(如SVM)融合使用,进一步优化效果。

八、算法详解

朴素贝叶斯(Naive Bayes)算法详解

朴素贝叶斯是机器学习中经典且广泛应用的分类算法,属于基于概率统计的生成式模型。它以贝叶斯定理为理论基础,通过“朴素”的条件独立性假设简化计算,在文本分类、垃圾邮件识别、情感分析等领域表现优异。

一、算法核心理论基础

1.1 贝叶斯定理

贝叶斯定理是朴素贝叶斯的数学基石,用于描述两个条件概率之间的关系,公式如下:

P(A∣B)=P(B∣A)⋅P(A)P(B)P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}P(AB)=P(B)P(BA)P(A)

其中:

  • $ P(A|B) $:后验概率(事件B发生后,事件A发生的概率)
  • $ P(B|A) $:似然概率(事件A发生时,事件B发生的概率)
  • $ P(A) $:先验概率(事件A发生的初始概率)
  • $ P(B) $:证据概率(事件B发生的总概率,用于归一化)

贝叶斯定理在实际场景中有着直观的应用。例如,在医疗诊断场景里,假设事件A表示患者患有某种疾病,事件B表示患者出现了特定症状。那么P(A)P(A)P(A)就是在总体人群中患有该疾病的概率,这可以通过历史数据统计得到;P(B∣A)P(B|A)P(BA)是患有该疾病的患者出现此特定症状的概率,同样可从临床数据中总结;P(B)P(B)P(B)是所有人群中出现该症状的概率,包含患病和未患病的情况。而医生最关心的P(A∣B)P(A|B)P(AB),即出现特定症状的患者患有该疾病的概率,就可以通过贝叶斯定理计算得出,从而辅助诊断决策。

1.2 朴素的条件独立性假设

在分类问题中,设输入特征为X=(x1,x2,⋯ ,xn) X = (x_1, x_2, \cdots, x_n) X=(x1,x2,,xn),类别为$ Y $。朴素贝叶斯的核心假设是:给定类别时,所有特征之间相互独立。即:

P(X∣Y)=P(x1,x2,⋯ ,xn∣Y)=∏i=1nP(xi∣Y) P(X|Y) = P(x_1, x_2, \cdots, x_n|Y) = \prod_{i=1}^{n} P(x_i|Y) P(XY)=P(x1,x2,,xnY)=i=1nP(xiY)

这一假设大幅简化了计算,避免了对高维特征联合概率的复杂估计,但也可能损失部分特征关联性信息。

以判断一封邮件是否为垃圾邮件为例,假设我们提取了邮件中的三个特征:是否包含“促销”字样($ x_1 )、是否有大量图片链接()、是否有大量图片链接()、是否有大量图片链接( x_2 )、发件人是否为陌生邮箱()、发件人是否为陌生邮箱()、发件人是否为陌生邮箱( x_3 ),类别),类别),类别 Y 为垃圾邮件或正常邮件。按照朴素贝叶斯的条件独立性假设,在已知邮件是垃圾邮件(为垃圾邮件或正常邮件。按照朴素贝叶斯的条件独立性假设,在已知邮件是垃圾邮件(为垃圾邮件或正常邮件。按照朴素贝叶斯的条件独立性假设,在已知邮件是垃圾邮件( Y = 垃圾邮件 $)的情况下,这三个特征出现的概率是相互独立的。也就是说,邮件包含“促销”字样的概率,不会受到是否有大量图片链接以及发件人是否陌生的影响。这种假设在实际中并不完全符合真实情况,因为这些特征之间可能存在某种关联,比如包含“促销”字样的邮件可能更倾向于带有大量图片链接,但朴素贝叶斯通过这种简化,使得计算过程大大简便,在很多场景下依然能取得较好效果。

1.3 分类决策规则

对于新样本$ X $,朴素贝叶斯通过计算其属于每个类别的后验概率,选择概率最大的类别作为预测结果:

Y^=arg⁡max⁡yP(Y=y)⋅∏i=1nP(xi∣Y=y) \hat{Y} = \arg\max_{y} P(Y=y) \cdot \prod_{i=1}^{n} P(x_i|Y=y) Y^=argymaxP(Y=y)i=1nP(xiY=y)

由于$ P(X) $对所有类别均相同,分类时可忽略分母,仅比较分子即可。

例如,在一个水果分类任务中,有苹果、橙子、香蕉三个类别,对于一个新的水果样本$ X ,它具有颜色为红色(,它具有颜色为红色(,它具有颜色为红色( x_1 )、形状近似圆形()、形状近似圆形()、形状近似圆形( x_2 )、表皮光滑()、表皮光滑()、表皮光滑( x_3 )等特征。我们分别计算)等特征。我们分别计算)等特征。我们分别计算 P(Y = 苹果) \cdot P(x_1|苹果) \cdot P(x_2|苹果) \cdot P(x_3|苹果) 、、 P(Y = 橙子) \cdot P(x_1|橙子) \cdot P(x_2|橙子) \cdot P(x_3|橙子) 、、 P(Y = 香蕉) \cdot P(x_1|香蕉) \cdot P(x_2|香蕉) \cdot P(x_3|香蕉) 这三个值,哪个值最大,就将该水果样本这三个值,哪个值最大,就将该水果样本这三个值,哪个值最大,就将该水果样本 X 判定为对应的类别。如果计算结果中判定为对应的类别。如果计算结果中判定为对应的类别。如果计算结果中 P(Y = 苹果) \cdot P(x_1|苹果) \cdot P(x_2|苹果) \cdot P(x_3|苹果) $的值最大,那么就认为这个水果样本是苹果。

二、算法流程

2.1 训练阶段(参数估计)

2.1.1 计算先验概率

统计每个类别在训练集中的出现频率:

P(Y=y)=类别y的样本数总样本数 P(Y=y) = \frac{类别y的样本数}{总样本数} P(Y=y)=总样本数类别y的样本数

例如,有一个包含1000封邮件的训练集,其中垃圾邮件有300封,正常邮件有700封。那么垃圾邮件类别的先验概率P(Y=垃圾邮件)=3001000=0.3 P(Y = 垃圾邮件) = \frac{300}{1000} = 0.3 P(Y=垃圾邮件)=1000300=0.3,正常邮件类别的先验概率P(Y=正常邮件)=7001000=0.7 P(Y = 正常邮件) = \frac{700}{1000} = 0.7 P(Y=正常邮件)=1000700=0.7

2.1.2 计算似然概率

对每个特征xi x_i xi,统计其在每个类别下的条件概率:

  • 若$ x_i $是离散特征

P(xi∣Y=y)=类别y中特征xi取值为v的样本数类别y的总样本数 P(x_i|Y=y) = \frac{类别y中特征x_i取值为v的样本数}{类别y的总样本数} P(xiY=y)=类别y的总样本数类别y中特征xi取值为v的样本数

例如,在上述邮件分类的训练集中,对于“是否包含‘促销’字样”这个离散特征(假设取值只有包含和不包含两种情况),在300封垃圾邮件中有200封包含“促销”字样,那么在垃圾邮件类别下,包含“促销”字样的似然概率P(xi=包含‘促销’字样∣Y=垃圾邮件)=200300≈0.67 P(x_i = 包含‘促销’字样|Y = 垃圾邮件) = \frac{200}{300} \approx 0.67 P(xi=包含促销字样Y=垃圾邮件)=3002000.67;在700封正常邮件中只有50封包含“促销”字样,那么在正常邮件类别下,包含“促销”字样的似然概率P(xi=包含‘促销’字样∣Y=正常邮件)=50700≈0.07 P(x_i = 包含‘促销’字样|Y = 正常邮件) = \frac{50}{700} \approx 0.07 P(xi=包含促销字样Y=正常邮件)=700500.07

  • 若 xi 是连续特征

通常假设特征服从高斯分布,通过极大似然估计均值μ \mu μ和方差σ2\sigma^2 σ2,再计算概率密度:

P(xi∣Y=y)=12πσy2exp⁡(−(xi−μy)22σy2) P(x_i|Y=y) = \frac{1}{\sqrt{2\pi\sigma_y^2}} \exp\left(-\frac{(x_i - \mu_y)^2}{2\sigma_y^2}\right) P(xiY=y)=2πσy21exp(2σy2(xiμy)2)

比如在预测一个人的健康状况时,以身高作为一个连续特征,假设在健康人群(类别 y )中,通过对训练集中健康人群的身高数据进行极大似然估计,得到身高的均值 y = 175 (单位:厘米),方差为25。对于一个新的个体,其身高 xi = 178 厘米,那么该个体在健康人群类别下关于身高这个特征的似然概率P(xi=178∣Y=健康人群)=12π×25exp⁡(−(178−175)22×25)P(x_i = 178|Y = 健康人群) = \frac{1}{\sqrt{2\pi\times25}} \exp\left(-\frac{(178 - 175)^2}{2\times25}\right)P(xi=178∣Y=健康人群)=2π×251exp(2×25(178175)2),通过计算可得具体数值。

2.1.3 平滑处理(避免零概率问题)

当某特征在某类别中未出现时,似然概率可能为0,导致整体乘积为0。解决方法:

  • 拉普拉斯平滑(离散特征)

P(xi∣Y=y)=类别y中xi=v的样本数+1类别y的总样本数+k P(x_i|Y=y) = \frac{类别y中x_i=v的样本数 + 1}{类别y的总样本数 + k} P(xiY=y)=类别y的总样本数+k类别yxi=v的样本数+1

其中 k 为特征 xi 的可能取值数。

继续以邮件分类中“是否包含‘促销’字样”这个离散特征为例,假设在训练集中的正常邮件类别里,恰好没有出现包含“免费”字样的邮件(即样本数为0),若不进行平滑处理,P(xi=包含‘免费’字样∣Y=正常邮件)=0 P(x_i = 包含‘免费’字样|Y = 正常邮件) = 0 P(xi=包含免费字样Y=正常邮件)=0。但使用拉普拉斯平滑,假设该特征只有包含和不包含两种取值( k = 2 ),那么P(xi=包含‘免费’字样∣Y=正常邮件)=0+1700+2≈0.0014P(x_i = 包含‘免费’字样|Y = 正常邮件) = \frac{0 + 1}{700 + 2} \approx 0.0014P(xi=包含免费字样Y=正常邮件)=700+20+10.0014,避免了因零概率导致的问题。

2.2 预测阶段

对新样本$ X $,计算其属于每个类别的后验概率(简化版):

P(Y=y∣X)∝P(Y=y)⋅∏i=1nP(xi∣Y=y) P(Y=y|X) \propto P(Y=y) \cdot \prod_{i=1}^{n} P(x_i|Y=y) P(Y=yX)P(Y=y)i=1nP(xiY=y)

选择概率最大的类别作为预测结果。

例如,对于一封新邮件,它包含“促销”字样,有大量图片链接,发件人是陌生邮箱。根据训练阶段得到的先验概率和似然概率,计算在垃圾邮件类别下的后验概率:

P(Y=垃圾邮件∣X)∝P(Y=垃圾邮件)⋅P(x1=包含‘促销’字样∣Y=垃圾邮件)⋅P(x2=有大量图片链接∣Y=垃圾邮件)⋅P(x3=发件人是陌生邮箱∣Y=垃圾邮件) P(Y = 垃圾邮件|X) \propto P(Y = 垃圾邮件) \cdot P(x_1 = 包含‘促销’字样|Y = 垃圾邮件) \cdot P(x_2 = 有大量图片链接|Y = 垃圾邮件) \cdot P(x_3 = 发件人是陌生邮箱|Y = 垃圾邮件) P(Y=垃圾邮件X)P(Y=垃圾邮件)P(x1=包含促销字样Y=垃圾邮件)P(x2=有大量图片链接Y=垃圾邮件)P(x3=发件人是陌生邮箱Y=垃圾邮件)

同样计算在正常邮件类别下的后验概率,比较两者大小,若 P(Y = 垃圾邮件|X) 的值更大,就将这封新邮件判定为垃圾邮件。

三、常见模型变种

根据特征类型和概率分布假设的不同,朴素贝叶斯可分为以下变种:

模型名称适用场景概率分布假设典型应用
高斯朴素贝叶斯连续特征特征服从高斯分布鸢尾花分类(基于花瓣长度、宽度等连续特征)、房价预测(基于房屋面积、房间数量等连续特征)
多项式朴素贝叶斯离散计数特征(如词频)特征服从多项式分布文本分类(统计文档中每个单词出现的次数作为特征)、文档主题识别(基于文档中主题相关词汇的出现频率)
伯努利朴素贝叶斯二元特征(0/1取值)特征服从伯努利分布垃圾邮件识别(词是否出现,出现记为1,未出现记为0)、用户是否点击广告预测(点击为1,未点击为0)
CategoricalNB(类别朴素贝叶斯)类别型离散特征特征服从类别分布产品类别预测(如预测商品属于电子产品类、服装类等类别型特征)

3.1 高斯朴素贝叶斯

高斯朴素贝叶斯假设特征在每个类别下服从高斯分布(正态分布)。在鸢尾花分类任务中,我们可以利用花瓣长度、花瓣宽度等连续特征。通过训练集,计算每个类别(如Setosa、Versicolour、Virginica)下这些连续特征的均值和方差,以此确定高斯分布的参数。在预测阶段,对于新样本的连续特征值,根据高斯分布的概率密度函数计算其在各个类别下的似然概率,再结合先验概率,通过朴素贝叶斯的决策规则判断新样本所属类别。

3.2 多项式朴素贝叶斯

多项式朴素贝叶斯适用于离散计数特征,如在文本分类中,我们将文档表示为词袋模型,统计每个单词在文档中出现的次数。在训练阶段,计算每个类别下每个单词出现次数的概率,即特征的多项式分布参数。例如在新闻主题分类中,对于体育类新闻、财经类新闻等不同类别,统计各类别新闻中“比赛”“股票”等单词出现的频率。预测时,新文档中单词的出现次数特征与训练得到的概率相结合,计算后验概率进行分类。

3.3 伯努利朴素贝叶斯

伯努利朴素贝叶斯针对二元特征,特征取值只有0和1两种情况。在垃圾邮件识别中,我们可以将每个单词是否在邮件中出现作为一个二元特征。训练时,统计垃圾邮件和正常邮件中每个单词出现(1)和未出现(0)的概率。例如,“促销”这个单词在垃圾邮件中出现的概率以及在正常邮件中出现的概率。预测新邮件时,根据邮件中单词出现与否的二元特征,结合先验概率计算后验概率,判断邮件是否为垃圾邮件。

3.4 CategoricalNB(类别朴素贝叶斯)

CategoricalNB用于类别型离散特征,比如在产品类别预测中,产品可能属于电子产品、服装、食品等不同类别。训练时,计算每个类别下各个类别型特征取值的概率。例如,在电子产品类别中,品牌为“苹果”“华为”等的概率;在服装类别中,款式为“上衣”“裤子”等的概率。预测新的产品样本时,根据其类别型特征的取值,结合先验概率计算后验概率,确定产品所属类别。

四、优缺点分析

4.1 优点

  1. 计算高效:训练和预测时间复杂度低,适合大规模数据集和高维特征(如文本)。由于朴素贝叶斯基于条件独立性假设,将联合概率计算简化为多个边缘概率的乘积,在训练阶段只需对数据进行简单的统计计数,预测阶段的计算也主要是乘法和比较操作,无需复杂的迭代或矩阵运算,因此在处理大规模文本数据时,能够快速完成训练和预测任务。

  2. 易于实现:原理直观,参数估计简单,无需复杂迭代优化。其核心理论贝叶斯定理和条件独立性假设易于理解,在实现过程中,计算先验概率和似然概率的方法直接明了,不需要像一些复杂模型那样进行大量超参数调整和复杂的优化算法,降低了开发和应用的门槛。

  3. 对小样本友好:通过平滑处理可在小数据集上稳定工作。在小样本情况下,某些特征的统计可能不充分,容易出现零概率问题,但拉普拉斯平滑等技术能够对概率进行合理修正,使得模型在小样本数据上也能给出相对可靠的预测结果。

  4. 可解释性强:每个特征对分类的贡献可通过概率直观体现。例如在垃圾邮件分类中,我们可以清楚地看到“促销”“免费”等单词在垃圾邮件类别下的似然概率较高,说明这些特征对判断邮件为垃圾邮件有较大贡献,用户能够直观理解模型的决策依据。

4.2 缺点

  1. 条件独立性假设局限:忽略特征间关联性,可能导致分类偏差(如“暴雨”和“洪水”的强关联被割裂)。在现实世界中,很多特征之间存在复杂的相互关系,而朴素贝叶斯的条件独立性假设忽视了这些关联。例如在自然灾害预测中,“暴雨”和“洪水”通常具有很强的关联性,但朴素贝叶斯会将它们视为独立特征,可能无法准确捕捉这种关系,从而影响对洪水发生概率的准确判断。

  2. 对特征分布敏感:若实际分布与假设(如高斯分布)偏差较大,性能下降明显。以高斯朴素贝叶斯为例,如果连续特征的实际分布并非高斯分布,而是呈现出偏态分布或其他复杂分布,那么基于高斯分布假设计算的似然概率将不准确,导致整体分类性能降低。

  3. 难以学习复杂模式:对非线性或高交互特征的建模能力较弱。朴素贝叶斯由于其简单的概率相乘模型结构,对于特征之间存在非线性关系或高维交互作用的情况,无法有效捕捉和建模,在处理这类复杂数据模式时表现不佳。

五、典型应用场景

  1. 文本分类:如垃圾邮件识别(关键词作为特征,判断“垃圾”或“正常”)、新闻主题分类。在垃圾邮件识别中,通过提取邮件中的关键词,利用多项式朴素贝叶斯或伯努利朴素贝叶斯,根据关键词在垃圾邮件和正常邮件中的出现概率来判断邮件类别。在新闻主题分类中,将新闻文本转化为词袋模型,运用多项式朴素贝叶斯统计不同主题下词汇的分布概率,实现对新闻主题的自动分类。

  2. 情感分析:通过文本中的情感词(如“开心”“失望”)预测用户情绪(正面/负面)。在电商平台的商品评价情感分析中,收集用户评价文本,提取其中的情感词汇作为特征,利用朴素贝叶斯模型计算评价文本属于正面情感或负面情感的后验概率,从而判断

http://www.dtcms.com/a/316088.html

相关文章:

  • 前端实现大模型流式响应方案
  • 播放器音频后处理实践(一)
  • LeetCode——2683. 相邻值的按位异或
  • 3. 为什么 0.1 + 0.2 != 0.3
  • Physics Simulation - UE中Projectile相关事项
  • Android 性能基准测试(Benchmark)完全指南:专业方法与最佳实践
  • VNC连接VirtualBox中的Ubuntu24.04 desktop图形化(GUI)界面
  • 【npm 解决】---- TypeError: crypto.hash is not a function
  • 相机拍摄的DNG格式照片日期如何修改?你可以用这款工具修改
  • Android --- Bug调查经验记录
  • linux 破解密码
  • LangGraph学习笔记 — LangGraph中State状态模式
  • 恶魔轮盘赌
  • 对 .NET线程 异常退出引发程序崩溃的反思
  • 基于vscode连接服务器实现远程开发
  • Redis之Set和SortedSet类型常用命令
  • Rust + WebAssembly 上线实战指南
  • LangChain入门:内存、记录聊天历史 ChatMessageHistory、模型、提示 ( Prompt )、模式 ( Schema )
  • Linux3
  • 在CentOS 7上搭建GitLab服务器的完整指南
  • 第二十五天(数据结构:树)
  • 智慧社区(七)——基于 ECharts 与 Spring Boot 实现小区住户数据统计可视化
  • Java面试宝典:对象的内存布局
  • 龙芯(loongson) ls2k1000 openwrt
  • 人工智能领域、图欧科技、IMYAI智能助手2025年3月更新月报
  • 网络巡查平台管理办法对政务管理有哪些作用
  • 进阶向:PDF合并/拆分工具
  • RabbitMQ削峰填谷详解:让系统在流量洪峰中“稳如泰山”
  • 在 MCP 中实现 “askhuman” 式交互:原理、实践与开源方案
  • Java: jwt 入门介绍(Introduction to JSON Web Tokens)