当前位置: 首页 > news >正文

scikit-learn/sklearn学习|弹性网络ElasticNet解读

【1】引言

前序学习进程中,对用scikit-learn表达线性回归、岭回归、套索回归和多任务套索回归进行了初步解读。
线性回归的目的,是将因变量yyy表达成由自变量xxx、线性系数矩阵www和截距bbb组成线性函数式。
线性回归获得函数式:
y=∑i=1nwi⋅xi+b=wTx+by=\sum_{i=1}^{n}w_{i}\cdot x_{i}+b=w^T{x}+by=i=1nwixi+b=wTx+b
对应的均方误差函数计算式为:
L(w,b)=∑i=1n(yi−yi^)2=∑i=1n(yi−(wTxi+b))2L(w,b)=\sum_{i=1}^{n}(y_{i}-\hat{y_{i}})^2=\sum_{i=1}^{n}(y_{i}-(w^Tx_{i}+b))^2L(w,b)=i=1n(yiyi^)2=i=1n(yi(wTxi+b))2在这里,yyy是第i个样本的真实值,y^\hat{y}y^是第i个样本的预测值。
普通线性回归的均方误差将真实值和预测值作差后求平方和即可。

【2】均方误差函数

实际上很多时候数据之间不一定是理想化的线性关系,所以需要对线性关系式进行修正,修正项位于均方误差计算函数中,这个时候就衍生出其他回归方法,至少包括岭回归、套索回归等,各种回归方法的区别就在于均方误差函数的修正项定义方式不一样。

【2.1】Ridge岭回归

Ridge岭回归增加了L2正则化惩罚项:
L(w,b)=∑i=1n(yi−yi^)2+α∑j=1mwj2=∑i=1n(yi−(wTxi+b))2+α∑i=1mwi2L(w,b)=\sum_{i=1}^{n}(y_{i}-\hat{y_{i}})^2+\alpha\sum_{j=1}^{m}w_{j}^{2}=\sum_{i=1}^{n}(y_{i}-(w^Tx_{i}+b))^2+\alpha\sum_{i=1}^{m}w_{i}^{2}L(w,b)=i=1n(yiyi^)2+αj=1mwj2=i=1n(yi(wTxi+b))2+αi=1mwi2在这里,yyy是第i个样本的真实值,y^\hat{y}y^是第i个样本的预测值。
新增加的L2正则化惩罚项为α∑i=1mwi2,其中α≥0\alpha\sum_{i=1}^{m}w_{i}^{2},其中\alpha\geq0αi=1mwi2,其中α0

【2.2】Lasso套索回归

Lasso套索回归的均方误差公式为:
L(w,b)=12n∑i=1n(yi−yi^)2+α∑j=1n∣wj∣=12n∑i=1n(yi−(wTxi+b))2+α∑i=1n∣wi∣L(w,b)=\frac{1}{2n}\sum_{i=1}^{n}(y_{i}-\hat{y_{i}})^2+\alpha\sum_{j=1}^{n}\left | w_{j} \right |=\frac{1}{2n}\sum_{i=1}^{n}(y_{i}-(w^Tx_{i}+b))^2+\alpha\sum_{i=1}^{n}\left | w_{i} \right |L(w,b)=2n1i=1n(yiyi^)2+αj=1nwj=2n1i=1n(yi(wTxi+b))2+αi=1nwi
新增加的L1L1L1正则化惩罚项为α∑i=1m∣wi∣,α≥0\alpha\sum_{i=1}^{m}\left | w_{i} \right |,\alpha \geq0αi=1mwi,α0

【2.3】MultiTaskLasso多任务套索回归

MultiTaskLasso多任务套索回归的均方误差公式为:
L(w,b)=12n∑i=1n(yi−yi^)2+α∑i=1n∑j=1mwi,j2=∑i=1n(yi−(wTxi+b))2+α∑i=1n∑j=1mwi,j2L(w,b)=\frac{1}{2n}\sum_{i=1}^{n}(y_{i}-\hat{y_{i}})^2+\alpha\sum_{i=1}^{n} \sqrt{\sum_{j=1}^{m}w_{i,j}^2}=\\\sum_{i=1}^{n}(y_{i}-(w^Tx_{i}+b))^2+\alpha\sum_{i=1}^{n}\sqrt{\sum_{j=1}^{m}w_{i,j}^2}L(w,b)=2n1i=1n(yiyi^)2+αi=1nj=1mwi,j2=i=1n(yi(wTxi+b))2+αi=1nj=1mwi,j2
同时使用了L1,L2L1,L2L1,L2正则化惩罚项
α∑i=1n∑j=1mwi,j2,α≥0\alpha\sum_{i=1}^{n}\sqrt{\sum_{j=1}^{m}w_{i,j}^2},\alpha \geq0αi=1nj=1mwi,j2,α0

【3】ElasticNet弹性网络

ElasticNet弹性网络的均方误差函数计算式MultiTaskLasso多任务套索回归类似,通过混合L1,L2L1,L2L1,L2正则化范数来修正均方误差:

L(w,b)=12n∑i=1n(yi−yi^)2+α(ρ∑i=1n∣wi∣+1−ρ2∑i=1nwi2)=∑i=1n(yi−(wTxi+b))2+α(ρ∑i=1n∣wi∣+1−ρ2∑i=1nwi2)L(w,b)=\frac{1}{2n}\sum_{i=1}^{n}(y_{i}-\hat{y_{i}})^2+\alpha(\rho \sum_{i=1}^{n}|w_{i}|+\frac{1-\rho}{2}\sum_{i=1}^{n}w_{i}^2)=\sum_{i=1}^{n}(y_{i}-(w^Tx_{i}+b))^2+\alpha(\rho \sum_{i=1}^{n}|w_{i}|+\frac{1-\rho}{2}\sum_{i=1}^{n}w_{i}^2)L(w,b)=2n1i=1n(yiyi^)2+α(ρi=1nwi+21ρi=1nwi2)=i=1n(yi(wTxi+b))2+α(ρi=1nwi+21ρi=1nwi2)

新增加的L1L2L1L2L1L2惩罚项包括三部分:
第一部分α\alphaα为惩罚项的强度,满足α≥0\alpha\geq0α0
第二项ρ∑i=1n∣wi∣\rho \sum_{i=1}^{n}|w_{i}|ρi=1nwiL1L1L1正则化项,它的存在会产生稀疏解,可以使部分系数为0;
第三项1−ρ2∑i=1nwi2\frac{1-\rho}{2}\sum_{i=1}^{n}w_{i}^221ρi=1nwi2L2L2L2正则化项,它的存在可以限制系数的绝对值不过大,实现防止过拟合。
其中ρ∈[0,1]\rho\in[0,1]ρ[0,1],当ρ=1\rho=1ρ=1时弹性网络回到套索回归Lasso,当ρ=0\rho=0ρ=0时弹性网络回到岭回归Ridge。

【4】总结

初步学习了弹性网络ElasticNet的基本概念。

http://www.dtcms.com/a/337106.html

相关文章:

  • 机器学习-决策树:从原理到实战的机器学习入门指南
  • 大模型的底层运算线性代数
  • 实现自学习系统,输入excel文件,能学习后进行相应回答
  • 香港服务器是否支持RAID磁盘阵列?
  • RTSP 播放器 vs RTMP 播放器:延迟对比与技术实践
  • HAProxy使用方法以及和LVS区别
  • 【数据库】Navicat 导入 Excel 数据乱码问题的解决方法
  • NY291NY297美光固态闪存NY298NY303
  • Jina Embeddings:高性能多模态向量模型的演进之路
  • Minitab AI 加持的头脑风暴法,破解企业改进难题
  • 驱动开发系列64 - glCompileShader实现之 GLSL normalize 精度优化
  • Linux 中断机制深度分析
  • SpatialLLM,SpatialReasoner,SpatialLM论文解读
  • 云原生事件驱动引擎(RocketMQ-EventBridge)应用场景与技术解析
  • 01数据结构-交换排序
  • 【EI会议征稿通知】第五届高性能计算、大数据与通信工程国际学术会议(ICHBC 2025)
  • 蓝桥杯算法之搜索章 - 6
  • LeetCode热题100--226. 翻转二叉树--简单
  • SSH 登录失败(publickey)问题总结
  • 【具身智能】2025:具身智能机器人量产元年——AI与物理世界的融合革命
  • UE TCP通信
  • FTP服务器
  • 【Python面试题】写一个用元类(metaclass)实现API接口自动注册的Demo。以及装饰器在项目中典型应用场景。
  • Unity进阶--C#补充知识点--【Unity跨平台的原理】Mono与IL2CPP
  • 继承中的向上转型、向下转型与动态绑定的深入解析
  • 【案例分享】AI使用分享|如何运用 GPT完成小任务并提升效率 —— Prompt 与案例整理
  • 跨平台笔记协作:cpolar 提升 Obsidian 知识库共享效率方案
  • 基于ssm jsp中学校园网站源码和答辩PPT论文
  • vue的双向数据绑定
  • 哪里找最新AI工具官网?如何快速对比ChatGPT替代品?AI工具导航指南 - AIbase