当前位置: 首页 > news >正文

scikit-learn/sklearn学习|广义线性回归 Logistic regression的三种成本函数

【1】引言

前序学习进程中,已经对线性回归和岭回归做了初步解读。
实际上, Logistic regression是一种广义的线性模型,在对线性分类的进一步学习前,有必要了解 Logistic regression。
在这里插入图片描述

【2】Logistic regression的3种成本函数

点击下方链接直达官网学习教程:logistic regression
Logistic regression是Logistic回归所使用的算法,包括的成本函数有3种,具体为:
L2L2L2正则化成本函数:
min⁡12wTw+C∑i=1nlog(exp(−yi(XiTw+c))+1)\min\frac{1}{2}w^Tw+C\sum_{i=1}^{n}log(exp(-y_{i}(X_{i}^Tw+c))+1)min21wTw+Ci=1nlog(exp(yi(XiTw+c))+1)
L1L1L1正则化成本函数:
min⁡∣∣w∣∣1+C∑i=1nlog(exp(−yi(XiTw+c))+1)\min||w||_{1}+C\sum_{i=1}^{n}log(exp(-y_{i}(X_{i}^Tw+c))+1)min∣∣w1+Ci=1nlog(exp(yi(XiTw+c))+1)
弹性网正则化成本,结合了L2L2L2正则化和L1L1L1正则化的成本函数:
min⁡1−ρ2wTw+ρ∣∣w∣∣1+C∑i=1nlog(exp(−yi(XiTw+c))+1)\min\frac{1-\rho}{2}w^Tw+\rho||w||_{1}+C\sum_{i=1}^{n}log(exp(-y_{i}(X_{i}^Tw+c))+1)min21ρwTw+ρ∣∣w1+Ci=1nlog(exp(yi(XiTw+c))+1)
显然,当ρ=1\rho=1ρ=1时,弹性网正则化等价于L1L1L1正则化
ρ=0\rho=0ρ=0时,弹性网正则化等价于L2L2L2正则化。

【3】总结

学习了Logistic regression的3种成本函数。

http://www.dtcms.com/a/331118.html

相关文章:

  • Docker 核心技术:Namespace
  • Java毕业设计选题推荐 |基于SpringBoot的健身爱好线上互动与打卡社交平台系统 互动打卡小程序系统
  • 2019 GPT2原文 Language Models are Unsupervised Multitask Learners - Reading Notes
  • [激光原理与应用-274]:理论 - 波动光学 - 光是电磁波,无线电磁波可以通过天线接收和发送,为什么可见光不可以?
  • Visual Studio2019/2022离线安装完整教程(含闪退解决方法)
  • 无人机双目视觉设计要点概述!
  • SOD-YOLO:基于YOLO的无人机图像小目标检测增强方法
  • 值传递+move 优化数据传递
  • torchvision中数据集的使用与DataLoader 小土堆pytorch记录
  • Autoppt-AI驱动的演示文稿生成工具
  • 深入理解 RAG:检索增强生成技术详解
  • 通过机器学习框架实现Android手写识别输入功能
  • 【开源工具】基于硬件指纹的“一机一码”软件授权系统全实现(附完整源码)
  • MapReduce系统架构,颠覆了互联网分层架构的本质?
  • xiaozhi-esp32 仓库分析文档
  • 树莓派 4B 上部署 Minecraft PaperMC 1.20.x 的一键部署脚本
  • [论文阅读] 人工智能 + 软件工程 | 代码变更转自然语言生成中的幻觉问题研究解析
  • 智能家居主控板:智慧家庭的核心大脑
  • 华为实验 链路聚合
  • 实测对比:飞算JavaAI vs 人工编码,谁在效率与质量上更胜一筹?
  • C#WPF实战出真汁03--登录功能实现
  • 本文详细讲解QJson 的用法
  • 带root权限_贝尔RG020ET-CA融合终端S905L处理器当贝纯净版刷机教程
  • Android init.rc详解2
  • 前端vue框架
  • 算法题Day1
  • Ubuntu 22.04 远程桌面设置固定密码的方法
  • 使用colmap自制3DGaussian_Splatting数据集
  • OpenCV 形态学操作
  • spring mvc HttpMessageConverter 消息转换器