当前位置: 首页 > wzjs >正文

团购网站开发语言品牌建设计划书

团购网站开发语言,品牌建设计划书,营销模板WordPress,帝国cms手机网站教程机器学习: 线性回归 文章目录 机器学习: 线性回归1. 线性回归1. 简介2. 线性回归如何训练?1. 损失函数2. 正规方程3. 梯度下降法4. 两种方法的比较2. 岭回归岭回归与线性回归3. Lasso 回归4. ElasticNet 回归LWR - 局部加权回归QA1. 最小二乘法估计2. 最小二乘法的几何解释3…

机器学习: 线性回归


文章目录

  • 机器学习: 线性回归
    • 1. 线性回归
      • 1. 简介
      • 2. 线性回归如何训练?
        • 1. 损失函数
        • 2. 正规方程
        • 3. 梯度下降法
        • 4. 两种方法的比较
    • 2. 岭回归
      • 岭回归与线性回归
    • 3. Lasso 回归
    • 4. ElasticNet 回归
    • LWR - 局部加权回归
    • QA
      • 1. 最小二乘法估计
      • 2. 最小二乘法的几何解释
      • 3. 从概率角度看最小二乘法
      • 4. 推一下线性回归的反向传播
      • 5. 什么时候使用岭回归 ?
      • 6. 什么时候使用 L1 正则化?
      • 7. 什么时候使用 L1 正则化?

1. 线性回归

1. 简介

简单来说,线性回归算法就是找到一条直线(一元线性回归)或一个平面(多元线性回归)能够根据输入的特征向量来更好的预测输出y的值。

其本质含义在于 X 与 Y 是线性相关的。
y = θ 0 + θ 1 x 1 + ⋯ + θ p x p = θ T x y = \theta_0 + \theta_1x_1 + \cdots + \theta_px_p = \theta^Tx y=θ0+θ1x1++θpxp=θTx

2. 线性回归如何训练?

在线性回归中, 我们可以通过两种方法来求取参数 θ \theta θ , 一种是采用正规方程, 一种是采用梯度下降方法

1. 损失函数

J ( θ ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 , 或 矩阵表示 : J ( θ ) = 1 2 m ( X θ − y ) T ( X θ − y ) J(\theta) = \frac{1}{2m} \sum_{i=1}^m (h_\theta(x^{(i)}) - y^{(i)})^2, \qquad \\ 或 \\ 矩阵表示: J(\theta) = \frac{1}{2m} (X\theta-y)^T(X\theta - y) J(θ)=2m1i=1m(hθ(x(i))y(i))2,矩阵表示:J(θ)=2m1(y)T(y)

2. 正规方程

我们使用 $J(\theta) $对 θ \theta θ 求导, 得到:
δ J ( θ ) δ θ = 2 X T ( X θ − y ) \frac{\delta J(\theta)}{\delta \theta} = 2 X^T(X\theta - y) δθδJ(θ)=2XT(y)
令上式为0,我们可以得到 $ \theta$ 的值为:
θ = ( X T X ) − 1 X T y \theta = (X^TX)^{-1}X^Ty θ=(XTX)1XTy
我们可以直接通过矩阵运算来求出参数 θ \theta θ 的解。 而上式我们发现其涉及到了矩阵的可逆问题,如果 $(XTX){-1} $可逆,那么参数 θ \theta θ 的解唯一如果不可逆, 则此时就无法使用正规方程的方法来解。

3. 梯度下降法

我们可以采用批量梯度下降算法, 此时有:

θ j = θ j − α δ δ θ j J ( θ ) 带入 J ( θ ) 得: θ j = θ j − α 1 m ∑ i = 1 m ( y ( i ) − h θ ( x ( i ) ) ) x j ( i ) 或矩阵表达: θ j = θ j + α 1 m ( y − X θ ) T x j \theta_j = \theta_j - \alpha \frac{\delta}{\delta \theta_j} J(\theta) \\ 带入J(\theta) 得: \theta_j = \theta_j - \alpha \frac{1}{m} \sum_{i=1}^m (y^{(i)} - h_\theta(x^{(i)}))x_j^{(i)} \\ 或矩阵表达:\theta_j = \theta_j + \alpha \frac{1}{m}(y-X\theta)^Tx_j θj=θjαδθjδJ(θ)带入J(θ)得:θj=θjαm1i=1m(y(i)hθ(x(i)))xj(i)或矩阵表达:θj=θj+αm1(y)Txj

4. 两种方法的比较
  • 梯度下降中需要选择适当的学习率 $\alpha $
  • 梯度下降法中需要多次进行迭代,而正规方程只需要使用矩阵运算就可以完成
  • 梯度下降算法对多特征适应性较好,能在特征数量很多时仍然工作良好, 而正规方程算法复杂度为 $O(n^3) $,所以如果特征维度太高(特别是超过 10000 维),那么不宜再考虑该方法。
  • 正规方程中矩阵需要可逆。

2. 岭回归

岭回归本质上是 线性回归 + L2 正则化
h ^ θ ( x ) = h θ ( x ) + λ ∑ i w i 2 \hat{h}_{\theta}(x) = h_{\theta}(x) + \lambda \sum_i w_i^2 h^θ(x)=hθ(x)+λiwi2

岭回归与线性回归

线性回归中通过正规方程得到的 w 的估计:
w ^ = ( X T X ) − 1 X T y \hat{w} = (X^TX)^{-1}X^Ty w^=(XTX)1XTy
但是,当我们有 N 个样本,每个样本有 x i ∈ R p x_i \in R^p xiRp, 当 N < p 时, X T X X^TX XTX 不可逆, 无法通过正规方程计算,容易造成过拟合。

岭回归通过在矩阵 X T X X^TX XTX 上加一个 λ I \lambda I λI 来使得矩阵可逆, 此时的 w 的估计:
w ^ = ( X T X + λ I ) − 1 X T y \hat{w} = (X^TX + \lambda I)^{-1}X^Ty w^=(XTX+λI)1XTy
而岭回归本质上是对 L ( w ) L(w) L(w) 进行 L2 正则化, 此时的 J ( w ) J(w) J(w) 表示为:
J ( w ) = ∑ i = 1 N ∣ ∣ w T x i − y i ∣ ∣ 2 + λ w T w = ( w T X T − Y T ) ( X w − Y ) + λ w T w = w T X

http://www.dtcms.com/wzjs/548854.html

相关文章:

  • 做网站需要展示工厂么?字牌标识公司网站网站编号 6019
  • 郑州网站建设制作价格站长工具seo综合查询方法
  • 邯郸网站建设邯郸网站制作wordpress4.5.3中文版
  • php做的网站预览在线做数据图的网站有哪些问题
  • 电子商务网站建设的开发背景p2p系统网站开发
  • php 网站 上传到空间投资企业网站备案要前置认证
  • 做纺织生意用什么网站好芜湖建设网站公司
  • 网站seo优化工具磁力天堂最新版地址
  • 翻译公司网站建设多少钱wordpress seo 链接
  • 网站前台设计过程火山软件开发平台教程
  • 网站的公共头部怎么做wordpress建站ftp
  • 南宁网站建设优化做网站上找王思奇
  • 温州网站建设方案书wordpress wp_parse_args()
  • 建网站价格多少wordpress 页面 html代码
  • 网站备案个人备案公司网站网页制作平台有
  • 自助网站建设汕头cms模板建站
  • title 门户网站建设招标书如何做网站栏目规划
  • 网站建设服务器有哪些广告文案的100案例
  • 智能魔方网站电脑网页游戏平台
  • 绍兴网站建设技术外包客户关系管理系统软件有哪些
  • 沧州企业网站专业定制如何做好电子商务网站开发
  • 营销网络世界地图网站优化公司方案
  • 韩城网站建设网站公司建设网站价格
  • 加快信用网站建设网站建设 有聊天工具的吗
  • 如何做一个商城类型的网站百度推广的渠道有哪些
  • 网站的建设与管理自考wordpress win8 主题下载
  • 腾讯云网站备案不能用阿里云青岛网站开发学校
  • 交换机做网站郑州网站制作培训学校
  • 建网站有哪些文件夹如何创造一个小程序
  • 网站搜索引擎优化主要方法wordpress图片并排