当前位置: 首页 > news >正文

SME-OLS

OLS 三个式子

真实值与残差 (residual)

  • 定义

    ei=yi−y^ie_i = y_i - \hat{y}_iei=yiy^i

    • yiy_iyi:第 i 个样本的真实观测值;

    • y^i\hat{y}_iy^i:回归模型给出的预测值;

    • eie_iei:残差(residual),是“真实值 - 预测值”。

总体模型(理论模型)

  • 形式
    Yi=β1+β2Xi+εiY_i = \beta_1 + \beta_2 X_i + \varepsilon_iYi=β1+β2Xi+εi
    • β1,β2\beta_1, \beta_2β1,β2:总体的真实参数(未知);

    • εi\varepsilon_iεi:随机误差项,捕捉未观测因素和随机性。

这是 理想中的经济学/统计学关系,但参数β\betaβ和误差分布我们不知道。

样本估计模型(回归方程)

  • 形式

    Y^i=b1+b2Xi\hat{Y}_i = b_1 + b_2 X_iY^i=b1+b2Xi

    • b1,b2b_1, b_2b1,b2:由样本数据计算出来的 OLS 估计量(估计β1,β2\beta_1, \beta_2β1,β2);

    • Y^i\hat{Y}_iY^i:预测值(fitted value)。

在样本数据上估计出来的拟合直线

三者关系梳理

  1. 总体模型(理论层面)
    Yi=β1+β2Xi+εiY_i = \beta_1 + \beta_2 X_i + \varepsilon_iYi=β1+β2Xi+εi

    ——描述数据的真实生成机制。

  2. 样本模型(估计层面)
    Y^i=b1+b2Xi\hat{Y}_i = b_1 + b_2 X_iY^i=b1+b2Xi

    ——用 OLS 得到的估计直线,代替未知的真实直线。

  3. 残差(误差的样本体现)
    ei=yi−y^ie_i = y_i - \hat{y}_iei=yiy^i

    ——衡量预测值与观测值的差距。

b和β\betaβ之间的联系

二者的关系

  • 在统计学上,b1b_1b1​ 和 b2b_2b2β1,β2\beta_1, \beta_2β1,β2​ 的 无偏估计量

    E(b1)=β1,E(b2)=β2E(b_1) = \beta_1, \quad E(b_2) = \beta_2E(b1)=β1,E(b2)=β2

  • 这意味着:如果我们无限次重复抽样并每次计算b1b_1b1​,它们的平均值会等于真实参数 β1\beta_1β1

直观理解

  • β:真理(总体直线),但我们看不见;

  • b:猜测(样本直线),是用数据近似出来的;

  • b 不是 β,但在长期来看,bb的平均会逼近 β。

Least squares estimates

image.png

对β进行求偏导:
∂Q∂β1=−2∑in=(yi−β1−β2xi)=0(1)\frac{ \partial Q }{ \partial \beta_{1} } = −2 \sum^n_{i}= (y_i − β_{1} − β_{2}x_{i}) = 0 \quad (1) β1Q=2in=(yiβ1β2xi)=0(1)

∂Q∂β2=−2∑in(yi−β1−β1xi)xi=0(2)\frac{ \partial Q }{ \partial \beta_{2} } = −2 \sum^n_{i} (y_{i} − β_1 − β_{1}x_{i}) x_{i} = 0 \quad (2) β2Q=2in(yiβ1β1xi)xi=0(2)

(1)(1)1进行化简:
b1=yˉ−b2xˉ(3)b_{1}=\bar{y}-b_{2}\bar{x}\quad (3)b1=yˉb2xˉ(3)

对(2)进行化简:

∑i=1nyixi−b1∑i=1nxi−b2∑i=1nxi2=0(4)\sum_{i=1}^ny_{i}x_{i}-b_{1}\sum_{i=1}^nx_{i}-b_{2}\sum_{i=1}^nx_{i}^2=0\quad(4)i=1nyixib1i=1nxib2i=1nxi2=0(4)

带入(3)到(4)

b2=SxySxxb_{2}=\frac{S_{xy}}{S_{xx}}b2=SxxSxy

image.png

Properties of the fitted regression line

image.png

性质4:

image.png

性质6:

协方差的定义里一定要减去均值(否则只是内积,不是协方差);

因为 eˉ=0\bar{e} = 0eˉ=0,所以:

Cov(y^i,ei)=1n−1∑i=1n(y^i−y^ˉ)ei​\mathrm{Cov}(\hat{y}_i, e_i) = \frac{1}{n-1} \sum_{i=1}^n (\hat{y}_i - \bar{\hat{y}}) e_i​Cov(y^i,ei)=n11i=1n(y^iy^ˉ)ei

这就说明了:协方差公式里确实要减去y^\hat{y}y^​ 的均值,只是因为残差的均值为 0,才只剩下 y^i−y^ˉ\hat{y}_i - \bar{\hat{y}}y^iy^ˉ​。

Sample Correlation coefficient

image.png

回归分析中的作用

  • 一元线性回归中:

    R2=rxy2​R^2 = r_{xy}^2​R2=rxy2

    也就是说,相关系数的平方等于判定系数 R2R^2R2,它衡量模型对因变量 y 变异的解释程度。

  • 因此,相关系数不仅衡量关系强弱,还能告诉我们回归直线“拟合好不好”。

变量筛选与建模

  • 在多元回归前,研究者会用相关系数矩阵查看自变量之间的相关性。

    • 高度相关 → 多重共线性风险。

    • 低相关 → 变量之间独立性更强,更适合一起放入模型。

Assessing the OLS estimator

image.png

image.png

unbiasedness of the estimator

有意思的是:
这里证明无偏是先证明b2b_2b2再到b1b_1b1,前面计算最小二乘法是先用b1b_1b1换元

image.png

variance of an estimator

image.png

Goodness-of-fit

在一元线性回归中,我们有经典的三分解:

SST=SSR+SSESST=SSR+SSESST=SSR+SSE

  • SST (Total Sum of Squares):总平方和,度量 y 总的变异性。

  • SSR (Regression Sum of Squares):回归平方和,被回归模型解释的那部分变异。

  • SSE (Error Sum of Squares):残差平方和,模型没有解释掉的部分。

The Gauss–Markov theorem

image.png

image.png

这些构造的非 OLS 估计量没法实际拟合,它们的唯一用处就是作为参照物,帮助我们理解为什么 OLS 是 “Best Linear Unbiased Estimator”。

Coefficient of determination(判定系数)

image.png

image.png

  • 一元回归:R2R^2R2 既可以理解为 x 与 y 的相关性平方;

  • 所有回归:R2R^2R2也可以理解为 y 与预测值 y^\hat{y}y^ 的相关性平方;

什么时候减y^\hat{y}y^什么时候减去y^ˉ\bar{\hat{y}}y^ˉ

1. 当 y^\hat{y}y^ 减去 yˉ\bar{y}yˉ 的情况

出现在 方差分解 (SST = SSR + SSE) 里。

SSR=∑i=1n(y^i−yˉ)2SSR = \sum_{i=1}^n (\hat{y}_i - \bar{y})^2SSR=i=1n(y^iyˉ)2

为什么这里是 yˉ\bar{y}yˉ而不是 y^ˉ\bar{\hat{y}}y^ˉ

  • 因为我们在分解的是因变量 y 的总变异性:

    ∑(yi−yˉ)2=∑(y^i−yˉ)2+∑(yi−y^i)2\sum (y_i - \bar{y})^2 = \sum (\hat{y}_i - \bar{y})^2 + \sum (y_i - \hat{y}_i)^2(yiyˉ)2=(y^iyˉ)2+(yiy^i)2

  • 这里必须用 yˉ\bar{y}yˉ,保证三项加起来正好等于总平方和 SST。

  • 直观理解:我们关心的是回归线解释了多少 y 的变动,而 y的均值才是参照点。

2. 当 y^\hat{y}y^减去 y^ˉ\bar{\hat{y}}y^ˉ 的情况

出现在 协方差或相关系数的定义里:

ry,y^=∑(yi−yˉ)(y^i−y^ˉ)∑(yi−yˉ)2∑(y^i−y^ˉ)2r_{y,\hat{y}} = \frac{\sum (y_i - \bar{y})(\hat{y}_i - \bar{\hat{y}})}{\sqrt{\sum (y_i - \bar{y})^2 \sum (\hat{y}_i - \bar{\hat{y}})^2}}ry,y^=(yiyˉ)2(y^iy^ˉ)2(yiyˉ)(y^iy^ˉ)

为什么要用 y^ˉ\bar{\hat{y}}y^ˉ

  • 因为相关系数的定义是基于 各自变量与自己的均值之差,不能随意换成别的均值。

  • 所以在计算 y 和 y^\hat{y}y^ 的相关性时:

    • y 要减去 yˉ\bar{y}yˉ

    • y^\hat{y}y^ 要减去 y^ˉ\bar{\hat{y}}y^ˉ


文章转载自:

http://E0E5PEl5.whpsL.cn
http://x27zaHZt.whpsL.cn
http://eSWGf8Nk.whpsL.cn
http://ZgeXCe56.whpsL.cn
http://lrNeVGey.whpsL.cn
http://9Ueo8O29.whpsL.cn
http://nfj3nOES.whpsL.cn
http://L4h8MF2W.whpsL.cn
http://FCZPpPav.whpsL.cn
http://Ne9EJR0h.whpsL.cn
http://1wjWc6f6.whpsL.cn
http://omr6Tuxx.whpsL.cn
http://U2bsmNCR.whpsL.cn
http://UZuda5ZH.whpsL.cn
http://HlplIJBa.whpsL.cn
http://xkIvQKqZ.whpsL.cn
http://RJQ7Kd3L.whpsL.cn
http://hwxr39L6.whpsL.cn
http://bD99KRMU.whpsL.cn
http://WNTRoQBS.whpsL.cn
http://7ui3I8XP.whpsL.cn
http://xwcL1FeK.whpsL.cn
http://KI8hGiMX.whpsL.cn
http://owGinlW2.whpsL.cn
http://dZwdQHIO.whpsL.cn
http://AUNdKa8i.whpsL.cn
http://DXr0SNbg.whpsL.cn
http://c5clThID.whpsL.cn
http://mBtBlEow.whpsL.cn
http://nVPvRzAg.whpsL.cn
http://www.dtcms.com/a/375425.html

相关文章:

  • 【OpenAI】性价比极高的轻量级多模态模型GPT-4.1-mini介绍 + API KEY的使用教程!
  • 机器学习-聚类
  • MyBatis基础到高级实践:全方位指南(中)
  • CLR的GC机制
  • 《投资-48》- 股市有哪些相互矛盾的说法?
  • 传统商业积分的普遍困境与 RWA 的破局可能
  • 稳定币法律困局:游走在创新与监管的钢丝绳上
  • 第三方区块链应用测评:【多签钱包合约安全评估_阈值签名机制与私钥存储安全性测试】
  • 【服务器】将本地项目部署到服务器
  • 串的模式匹配(朴素算法和KMP算法以及KMP的改进算法)
  • 基于LLM的月全食时空建模与智能预测:当古老天文遇见深度学习
  • php redis 中文API文档手册
  • 哪些危化品企业的岗位需要持有安全员证?
  • Linux指令基础
  • Modbus 速查与实战笔记(功能码、帧结构、坑点)
  • Label Smoothing Cross Entropy(标签平滑交叉熵) 是什么
  • 亮相cippe 成都石油展,陀螺定向短节带来高精度无磁导向方案
  • Debian 操作系统全面介绍
  • Java全栈开发工程师面试实战:从基础到微服务的深度解析
  • C++工程实战入门笔记15-移动语义
  • Vue3源码reactivity响应式篇之批量更新
  • Vue3源码reactivity响应式篇之computed计算属性
  • 微服务02
  • RPA的天花板真的到了吗?智能体正打开下一个市场
  • 计算机视觉(opencv)——基于模板匹配的信用卡号识别系统
  • STM32中EXTI原理及其运用
  • 如何在项目中融合Scrum和Kanban
  • 【华为OD】最大子矩阵和
  • 课前准备--空间转录组联合GWAS进行数据分析(gsMap)
  • RPC 与http对比