当前位置: 首页 > news >正文

机器学习—线性回归

一·线性回归

线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。

相关关系:包含因果关系和平行关系

因果关系:回归分析【原因引起结果,需要明确自变量和因变量】

平行关系:相关分析【无因果关系,不区分自变量和因变量】

二·一元线性回归模型理论

一元线性回归模型表达式为:y=β0​+β1​x+ε

其中:

\beta0.\beta 1为模型参数,用于刻画自变量 x 与因变量 y 线性关系的截距和斜率 。

\varepsilon为误差项,代表除线性因素外,由随机因素导致的误差 。

工资(x)贷款额度(y)
400010000
800012000
50008000
300010000
600015000
7000

三·多元线性回归模型
多元线性回归模型:

 y=β0​+β1​x1​+β2​x2​+ε

其中:

β0·β1·β2是模型参数。
\varepsilon是误差项。
误差项:除线性因素外的随机因素所产生的误差。

四·误差项分析
1. 误差项可以省略吗?
答:误差项不可省略,误差是必然产生的。并且由于产生了误差项,我们便可以基于误差的特点来进行对线性回归的参数估计的。
2. 误差项有什么特点?
答:独立同分布。
独立:每个样本点都是独立的;例:贷款,每个人与每个人之间是没有联系的,贷多少钱完全基于你的工资。
同分布:同分布就是我的这套估计体系是我人民银行的估计体系,每个人都是服从我的分布体系,不会使用别人的估计体系,也就是说每个样本点都处于同一个分布函数下。

误差项分析
3. 误差项满足高斯分布。
高斯分布:
又称为正态分布,概率密度函数为:

对参数问题的估计就转化成了对误差项的分析。
1. 期望为 0;
2. 方差相同,为\sigma ^{2}

http://www.dtcms.com/a/301694.html

相关文章:

  • 深入解析MySQL索引页结构与B+Tree实现原理
  • ubuntu18.04解压大的tar.gz文件失败
  • 【Java系统接口幂等性解决实操】
  • java--WebSocket简单介绍
  • 2.安装CUDA详细步骤(含安装截图)
  • Dataloader的使用
  • 对抗攻击-知识点
  • HCIE学习之路:MSTP实现负载均衡实验
  • 全方位评测:11款主流指标平台优劣分析
  • [BSidesCF 2019]Kookie
  • 【测试报告】玄机抽奖系统(Java+Selenium+Jmeter自动化测试)
  • MyBatis-Plus 通用 Service(IService)详解与实战
  • Mybatis Plus 多数据源
  • 【LeetCode 热题 100】51. N 皇后——回溯
  • WiFi Mouse PC端 v1.7.2 官方中文版
  • GIF图像格式
  • 【RAG技术权威指南】从原理到企业级应用实践
  • Git Commit 生成与合入 Patch 指南
  • 《关于matplot中绘制图像中文字体乱码问题》
  • AWS免费套餐全面升级:企业降本增效与技术创新解决方案
  • 物联网发展:从概念到应用的演变历程
  • vue3报错:this.$refs.** undefined
  • 【INT范围提取字符串数字为正数】2022-8-29
  • Linux文件系统(三)
  • Java常用日志框架介绍
  • 【笔记】菲克定律与连续性方程详述
  • 【测试报告】博客系统(Java+Selenium+Jmeter自动化测试)
  • 【Milvus合集】1.Milvus 的核心概念(collection、field、index、partition、segment)
  • 【lucene】向量搜索底层文件关系梳理
  • springboot实现打印每个接口请求的出参和入参