当前位置: 首页 > news >正文

大连理工大学选修课——机器学习笔记(9):线性判别式与逻辑回归

线性判别式与逻辑回归

概述

判别式方法

产生式模型需要计算输入、输出的联合概率

  • 需要知道样本的概率分布,定义似然密度的隐式参数
  • 也称为基于似然的分类

判别式模型直接构造判别式 g i ( x ∣ θ i ) g_i(x|\theta_i) gi(xθi),显式定义判别式参数,不关心数据生成过程

基于判别式的方法只关注类区域之间的边界

在这里插入图片描述

一般认为,估计样本集的类密度比估计类判别式更困难,因为构造判别式通常采用简单的模型

如,线性判别式:

g i ( x ∣ w i , w i 0 ) = w i T + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^T+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiT+wi0=j=1dwijxj+wi0

广义上,线性判别式代表了一类机器学习模型

  • 逻辑回归
  • 支持向量机
  • 感知机
  • 神经网络

狭义上,线性判别式仅代表逻辑回归

线性判别式

建立判别式

g i ( x ∣ w i , w i 0 ) = w i T x + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^Tx+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiTx+wi0=j=1dwijxj+wi0

最大熵模型的判别式还是从条件后验概率出发

在这里插入图片描述

建模的条件

  1. 数据只有两类

  2. 线性可分

    在这里插入图片描述

判别式模型不考虑数据集的概率分布,直接假定判别式的形式

模型的训练

g i ( x ∣ w i , w i 0 ) = w i T x + w i 0 = ∑ j = 1 d w i j x j + w i 0 g_i(x|w_i,w_{i0})=w_i^Tx+w_{i0}=\sum_{j=1}^dw_{ij}x_j+w_{i0} gi(xwi,wi0)=wiTx+wi0=j=1dwijxj+wi0

可以采用梯度法,牛顿法等

也可以采用全局优化算法,如遗传算法,模拟退火算法等

线性模型的推广

如果数据不是线性可分的,可以提高模型的复杂度,例如使用二次判别式

  • 升维操作,增加高阶项

在这里插入图片描述

  • 升维操作的一般形式

    g i ( x ) = ∑ j = 1 k w j θ i j ( x ) + w i 0 g_i(x)=\sum_{j=1}^kw_j\theta_{ij}(x)+w_i0 gi(x)=j=1kwjθij(x)+wi0

    其中, θ i j \theta_{ij} θij是非线性函数,称为基函数

    常用的基函数有sin,exp,log等

线性模型的及决策

原则上,每个类别对应一个判别式,二值分类一个判别式可以分类

g ( x ) > 0 ? C 1 : C 2 g(x)>0\ ?\ C_1:C2 g(x)>0 ? C1:C2

线性模型的几何意义

任取超平面的两个点 x 1 , x 2 , x_1,x_2, x1,x2, g ( x 1 ) = g ( x 2 ) g(x_1)=g(x_2) g(x1)=g(x2)

w T w^T wT为超平面法线

x的新表达式为

x = x p + r w ∣ ∣ w ∣ ∣ x=x_p+r\frac{w}{||w||} x=xp+r∣∣w∣∣w

其中, x p x_p xp x x x到超平面的投影;r是x到超平面的距离 r = g ( x ) ∣ ∣ w ∣ ∣ r=\frac{g(x)}{||w||} r=∣∣w∣∣g(x)

超平面到原点的距离为 r 0 = w o ∣ ∣ w ∣ ∣ r_0=\frac{w_o}{||w||} r0=∣∣w∣∣wo

处理多类问题

当类别数大于2时,需要k个判别式,假定所有类均线性可分,则可以用线性判别式进行区分

对于属于类别 C i C_i Ci的样本 x x x,我们期望其判别式函数 g i ( x ) > 0 g_i(x)>0 gi(x)>0,而其它判别式函数 g j ( x ) < 0 g_j(x)<0 gj(x)<0

但是现实中,多个类别的判别式可能同时给出 g ( x ) > 0 g(x)>0 g(x)>0

因此,我们取判别式值最大的类即 预测类别 = m a x g i ( x ) 预测类别=max\ g_i(x) 预测类别=max gi(x)

此方法称为线性分类器

如果类线性不可分,则可以采取

  1. 升维
  2. 逐对分离:假定各类别间逐对线性可分,那么,有 K ( K − 1 ) 2 \frac{K(K-1)}{2} 2K(K1)个对,建立这么多个线性判别式

在这里插入图片描述

如果k既不属于i也不属于j,则在训练中舍弃样本 x t x^t xt x t x^t xt为其它类样本

这种不断排除的理念类似决策树

逻辑回归

讨论二值分类的对数线性模型

我们从后验概率 P ( C i ∣ x ) P(C_i|x) P(Cix)的计算出发,建立学习模型

定义 P ( C 1 ∣ x ) = y , P ( C 2 ∣ x ) = 1 − y P(C_1|x)=y,P(C_2|x)=1-y P(C1x)=y,P(C2x)=1y

决策为:

在这里插入图片描述

假设两个类别的数据 C 1 , C 2 C_1,C_2 C1,C2服从高斯分布,两类别共享协方差矩阵,在此假设下,贝叶斯分类器的判别式 g ( x ) g(x) g(x)是线性的,推导如下:

根据高斯判别分析的结论:

  • 后验概率 P ( C 1 ∣ x ) P(C_1|x) P(C1x)可表示为:

l o g P ( C 1 ∣ x ) P ( C 2 ∣ x ) = w T x + w 0 \begin{align} log\frac{P(C_1|x)}{P(C_2|x)}=w^Tx+w_0 \end{align} logP(C2x)P(C1x)=wTx+w0

  • 由于 P ( C 2 ∣ x ) = 1 − P ( C 1 ∣ x ) P(C_2|x)=1-P(C_1|x) P(C2x)=1P(C1x),上式等价于:

l o g P ( C 1 ∣ x ) 1 − P ( C 1 ∣ x ) = w T x + w 0 = l o g i t ( P ( C 1 ∣ x ) ) \begin{align} log\frac{P(C_1|x)}{1-P(C_1|x)}=w^Tx+w_0=logit(P(C_1|x)) \end{align} log1P(C1x)P(C1x)=wTx+w0=logit(P(C1x))

这正是对数几率的定义

  • ( 2 ) (2) (2)移项,得:

P ( C 1 ∣ x ) = 1 1 + e − ( w T + w 0 ) P(C_1|x)=\frac{1}{1+e^{-(w^T+w_0)}} P(C1x)=1+e(wT+w0)1

( 3 ) (3) (3)式为逻辑回归的模型形式,sigmoid。

Logistic函数(也称sigmoid)

P ( C 1 ∣ x ) = 1 1 + e − ( w T + w 0 ) = s i g m o i d ( w T x + w 0 ) P(C_1|x)=\frac{1}{1+e^{-(w^T+w_0)}}=sigmoid(w^Tx+w_0) P(C1x)=1+e(wT+w0)1=sigmoid(wTx+w0)

在这里插入图片描述

sigmoid函数图像,y>0.5,选C_1

Logistic函数的一般形式

在这里插入图片描述

其中, μ \mu μ为位置参数, γ > 0 \gamma>0 γ>0为形状参数,关于 ( μ , 1 2 ) (\mu,\frac{1}{2}) (μ,21)对称

逻辑回归

逻辑回归的核心思想,在于不考虑数据分布,假定类似然密度的对数比为线性函数,那么:

l o g P ( x ∣ C 1 ) P ( x ∣ C 2 ) = w T x + w 0 0 \begin{align} log\ \frac{P(x|C_1)}{P(x|C_2)}=w^Tx+w_0^0 \end{align} log P(xC2)P(xC1)=wTx+w00

通过贝叶斯定理,将后验概率转换为似然比和先验比的乘积:

l o g P ( C 1 ∣ x ) P ( C 2 ∣ x ) = l o g P ( x ∣ C 1 ) P ( x ∣ C 2 ) + l o g P ( C 1 ) P ( C 2 ) \begin{align} log\frac{P(C_1|x)}{P(C_2|x)}=log\frac{P(x|C_1)}{P(x|C_2)}+log\frac{P(C_1)}{P(C_2)} \end{align} logP(C2x)P(C1x)=logP(xC2)P(xC1)+logP(C2)P(C1)

由公式 ( 2 ) ( 3 ) ( 4 ) (2)(3)(4) (2)(3)(4)得:

l o g i t ( P ( C 1 ∣ x ) ) = w T x + w 0 0 + l o g P ( C 1 ) P ( C 2 ) \begin{align}logit(P(C_1|x))=w^Tx+w^0_0+log\frac{P(C_1)}{P(C_2)} \end{align} logit(P(C1x))=wTx+w00+logP(C2)P(C1)

w 0 0 + l o g P ( C 1 ) P ( C 2 ) w^0_0+log\frac{P(C_1)}{P(C_2)} w00+logP(C2)P(C1)合并为新的偏置项,那么先验概率 P ( C k ) P(C_k) P(Ck)被吸收到了偏置项,模型仍保持线性:

l o g i t ( P ( C 1 ∣ x ) ) = w T x + w 0 0 logit(P(C_1|x))=w^Tx+w^0_0 logit(P(C1x))=wTx+w00

处理多类问题

我们推广二值分类至 K > 2 K>2 K>2的情形,假定:

l o g p ( x ∣ C i ) p ( x ∣ C k ) = w i T + w i 0 0 \begin{align} log\frac{p(x|C_i)}{p(x|C_k)}=w_i^T+w_{i0}^0 \end{align} logp(xCk)p(xCi)=wiT+wi00

进而:

p ( C i ∣ x ) p ( C k ∣ x ) = e w i T + w i 0 , i = 1 , 2 , ⋯ , K − 1 \begin{align} \frac{p(C_i|x)}{p(C_k|x)}=e^{w_i^T+w_{i0}},\quad i=1,2,\cdots,K-1 \end{align} p(Ckx)p(Cix)=ewiT+wi0,i=1,2,,K1

∑ i = 1 K p ( C i ∣ x ) p ( C K ∣ x ) = 1 p ( C k ∣ x ) = 1 + ∑ j = 1 K − 1 e w j x + w j 0 \begin{align} \sum_{i=1}^K\frac{p(C_i|x)}{p(C_K|x)}=\frac{1}{p(C_k|x)}= 1+\sum_{j=1}^{K-1}e^{w_jx+w_{j0}} \end{align} i=1Kp(CKx)p(Cix)=p(Ckx)1=1+j=1K1ewjx+wj0

于是:

p ( C k ∣ x ) = 1 1 + ∑ j = 1 K − 1 e w j x + w j 0 \begin{align} p(C_k|x)=\frac{1}{1+\sum_{j=1}^{K-1}e^{w_jx+w_{j0}}} \end{align} p(Ckx)=1+j=1K1ewjx+wj01

对于其它类别 i = 1 , ⋯ , K − 1 , i=1,\cdots,K-1, i=1,,K1,由公式 ( 3 ) (3) (3)得:

p ( C i ∣ x ) = e w i x + w i 0 1 + ∑ j = 1 K − 1 e w j x + w 0 \begin{align} p(C_i|x)=\frac{e^{w_ix+w_{i0}}}{1+\sum_{j=1}^{K-1}e^{w_jx+w_0}} \end{align} p(Cix)=1+j=1K1ewjx+w0ewix+wi0

将公式同一形式,对所有 i = 1 , ⋯ , K : i=1,\cdots,K: i=1,,K:

p ( C i ∣ x ) = e w i x + w i 0 ∑ j = 1 K e w j x + w j 0 , 其中 w K , w K 0 = 0 p(C_i|x)=\frac{e^{w_ix+w_{i0}}}{\sum_{j=1}^Ke^{w_jx+w_{j0}}},其中w_K,w_{K0}=0 p(Cix)=j=1Kewjx+wj0ewix+wi0,其中wK,wK0=0

softmax函数

y i = p ^ ( C i ∣ x ) = e w i x + w 0 ∑ e w j x + w j 0 y_i=\hat p(C_i|x)=\frac{e^{w_ix+w_0}}{\sum e^{w_jx+w_{j0}}} yi=p^(Cix)=ewjx+wj0ewix+w0

如果一个类C的判别式加权函数值明显大于其它类的加权和,那么 y i y_i yi接近于1,将数值限定在了 [ 0 , 1 ] [0,1] [0,1]之间,可以用概率表示。

逻辑回归与最大熵模型

逻辑回归和最大熵模型可以认为是同一类模型的不同表现形式。

在这里插入图片描述

逻辑回归的训练——梯度下降法

逻辑回归交叉熵损失函数:

E = − ∑ [ r l o g y + ( 1 − r ) l o g ( 1 − y ) ] E=-\sum [rlogy+(1-r)log(1-y)] E=[rlogy+(1r)log(1y)]

对E求偏导,乘以学习率,为更新方向:

△ w j = − η ∂ E ∂ w j = η ∑ ( r − y ) x j \triangle w_j=-\eta\frac{\partial E}{\partial w_j}=\eta\sum(r-y)x_j wj=ηwjE=η(ry)xj

相关文章:

  • Android学习总结之点击登录按钮流程
  • css 数字从0开始增加的动画效果
  • 安卓基础(Looper和Handler)
  • 逻辑回归在信用卡欺诈检测中的实战应用
  • Missashe考研日记-day31
  • 【上海大学数据库原理实验报告】MySQL基础操作
  • OpenCV 4.7企业级开发实战:从图像处理到目标检测的全方位指南
  • Web开发-JavaEE应用SpringBoot栈模版注入ThymeleafFreemarkerVelocity
  • Spring AI应用系列——基于OpenTelemetry实现大模型调用的可观测性实践
  • 益鑫通汽车连接器可替代Molex,JST
  • Axure疑难杂症:全局变量跨页面赋值、中继器交互(玩转全局变量)
  • 【Axure教程】增删改饼图
  • python实战项目67:空气质量在线检测平台js逆向
  • Neo4j多关系或多路径
  • 高并发内存池(五):性能测试与性能优化
  • 5.运输层
  • 使用skywalking进行go的接口监控和报警
  • Galini AI 技术实现方案及 GitHub 开源库推荐
  • EchoMimic 阿里开源数字人项目的复现过程
  • Vue 项目中运行 `npm run dev` 时发生的过程
  • 山东省委组织部办公室主任吴宪利已任德州市委常委、组织部部长
  • 来上海喝云南咖啡!上海国际咖啡文化节助力咖啡产业破圈出海
  • 徐徕任上海浦东新区副区长,此前已任区委常委
  • 黄仁勋访华期间表示希望继续与中国合作,贸促会回应
  • 周口一乡镇公务员“被老赖”,两年4场官司均败诉,市监局将线索移送公安厅
  • 《沙尘暴》:用贴近生活的影像和表演拍摄悬疑剧