当前位置: 首页 > wzjs >正文

网站推广意义网页设计培训教程

网站推广意义,网页设计培训教程,开发商延期交房怎么处理,备案 网站名字多元线性回归的梯度下降法详解 多元线性回归(Multiple Linear Regression)是多个自变量(特征)与一个因变量(目标)之间的线性关系建模,梯度下降法用于优化模型参数(权重和偏置&#…

多元线性回归的梯度下降法详解

多元线性回归(Multiple Linear Regression)是多个自变量(特征)与一个因变量(目标)之间的线性关系建模,梯度下降法用于优化模型参数(权重和偏置),最小化预测误差(如均方误差)。


1. 模型定义

(1) 假设函数(Hypothesis)

对于 ( n ) 个特征 ( x_1, x_2, \dots, x_n ) 和参数 ( w_1, w_2, \dots, w_n, b ),预测值 ( \hat{y} ) 为:
在这里插入图片描述

(2) 代价函数(Cost Function)

使用**均方误差(MSE)**衡量预测值与真实值的差距:
在这里插入图片描述


2. 梯度下降法

(1) 参数更新公式

对每个参数 ( w_j ) 和偏置 ( b ),沿梯度反方向更新:
在这里插入图片描述
在这里插入图片描述


3. 算法步骤

  1. 初始化参数

    • 权重 ( \mathbf{w} ) 和偏置 ( b ) 初始化为0或随机小值。
  2. 迭代更新

    • 计算当前参数下的预测值 ( \hat{y} )。
    • 计算梯度 ( \nabla_{\mathbf{w}} J ) 和 ( \frac{\partial J}{\partial b} )。
    • 更新参数:
      在这里插入图片描述
  3. 终止条件

    • 达到最大迭代次数,或梯度变化小于阈值。

4. 代码实现(Python)

import numpy as npdef gradient_descent(X, y, learning_rate=0.01, epochs=1000):m, n = X.shape  # m:样本数, n:特征数w = np.zeros(n)  # 初始化权重b = 0            # 初始化偏置history = []     # 记录损失变化for epoch in range(epochs):# 计算预测值y_pred = np.dot(X, w) + b# 计算梯度dw = (1/m) * np.dot(X.T, (y_pred - y))  # X.T是X的转置db = (1/m) * np.sum(y_pred - y)# 更新参数w -= learning_rate * dwb -= learning_rate * db# 记录损失(可选)loss = np.mean((y_pred - y)**2)history.append(loss)return w, b, history# 示例数据(添加偏置列)
X = np.array([[1, 2], [2, 3], [3, 4]])  # 2个特征
y = np.array([5, 8, 11])                 # y = 1*x1 + 2*x2 + 0# 运行梯度下降
w, b, history = gradient_descent(X, y, learning_rate=0.01, epochs=1000)
print("权重 w:", w)  # 应接近 [1., 2.]
print("偏置 b:", b)  # 应接近 0.

5. 关键细节

(1) 特征缩放(Feature Scaling)

  • 如果特征量纲差异大(如 ( x_1 \in [0,1] ), ( x_2 \in [100,1000] )),需先归一化:
    from sklearn.preprocessing import StandardScaler
    scaler = StandardScaler()
    X_scaled = scaler.fit_transform(X)
    
  • 原因:梯度下降在不同方向上的步长一致,量纲不均会导致收敛缓慢。

(2) 学习率选择

  • 太大(如 ( \alpha=1 )):可能发散(损失震荡上升)。
  • 太小(如 ( \alpha=10^{-6} )):收敛过慢。
  • 建议:尝试 ( \alpha=0.01, 0.001 ),观察损失曲线调整。

(3) 收敛判断

  • 监控损失函数 ( J(\mathbf{w}, b) ) 的变化,若连续几轮下降幅度小于阈值(如 ( 10^{-6} )),可提前终止。

6. 与解析解对比

  • 梯度下降:迭代逼近最优解,适合大规模数据(( m > 10^4 ))。
  • 解析解(正规方程):直接求闭式解 ( \mathbf{w} = (\mathbf{X}^T \mathbf{X})^{-1} \mathbf{X}^T \mathbf{y} ),但计算复杂度高(( O(n^3) )),仅适用于小规模数据。

7. 总结


|

核心公式

梯度下降是机器学习优化的基石,理解它才能掌握更复杂的模型(如逻辑回归、神经网络)!


http://www.dtcms.com/wzjs/251048.html

相关文章:

  • 网站建设教程论坛网页设计与制作步骤
  • 外贸软件销售好做吗seo优化厂商
  • 兰州事件最新进展天津百度优化
  • 中企动力做的网站升级收费站长之家最新域名查询
  • 有口碑的徐州网站开发关注公众号一单一结兼职
  • 重庆建设工程招标网站行业关键词查询
  • 网站建设服务 杭州万能优化大师下载
  • cn域名知名网站百度移动点击排名软件
  • 怎么搞免费的网站重庆seo俱乐部
  • wordpress版本升级夫唯seo教程
  • 哪个医学网站大夫可以做离线题网站搭建平台
  • wordpress本地更换为网站域名营销推广48个方法
  • php网页设计沈阳关键字优化公司
  • 乐陵网站制作老哥们给个关键词
  • 深圳建设网站公百度应用市场app下载安装
  • 南宁网站设计要多少钱谷歌官网入口
  • 腾讯云服务器可以做网站app下载注册推广平台
  • 淘宝seo关键词的获取方法有哪些广州seo做得比较好的公司
  • 端午节网站怎么做简述什么是网络营销
  • 多个链接的网站怎么做今日新闻国家大事
  • 如何查做的网站排名寻找郑州网站优化公司
  • wordpress素锦广州优化防控措施
  • 安卓下载app沈阳seo关键词排名
  • 易语言网站做软件文章优化软件
  • 缩短链接搜索引擎网站优化推广
  • 网站后台制作表格优化网站首页
  • 绵阳网站广州网络公司
  • 咪咕动态网站怎么做企业短视频推广
  • 没有网站可以做域名解析吗百度客服投诉中心
  • 兰州网站建设网站建设网络营销的模式有哪些