当前位置: 首页 > wzjs >正文

网站推广意义海南seo顾问服务

网站推广意义,海南seo顾问服务,建设公司网站广告语,做网站需要物流信息端口多元线性回归的梯度下降法详解 多元线性回归(Multiple Linear Regression)是多个自变量(特征)与一个因变量(目标)之间的线性关系建模,梯度下降法用于优化模型参数(权重和偏置&#…

多元线性回归的梯度下降法详解

多元线性回归(Multiple Linear Regression)是多个自变量(特征)与一个因变量(目标)之间的线性关系建模,梯度下降法用于优化模型参数(权重和偏置),最小化预测误差(如均方误差)。


1. 模型定义

(1) 假设函数(Hypothesis)

对于 ( n ) 个特征 ( x_1, x_2, \dots, x_n ) 和参数 ( w_1, w_2, \dots, w_n, b ),预测值 ( \hat{y} ) 为:
在这里插入图片描述

(2) 代价函数(Cost Function)

使用**均方误差(MSE)**衡量预测值与真实值的差距:
在这里插入图片描述


2. 梯度下降法

(1) 参数更新公式

对每个参数 ( w_j ) 和偏置 ( b ),沿梯度反方向更新:
在这里插入图片描述
在这里插入图片描述


3. 算法步骤

  1. 初始化参数

    • 权重 ( \mathbf{w} ) 和偏置 ( b ) 初始化为0或随机小值。
  2. 迭代更新

    • 计算当前参数下的预测值 ( \hat{y} )。
    • 计算梯度 ( \nabla_{\mathbf{w}} J ) 和 ( \frac{\partial J}{\partial b} )。
    • 更新参数:
      在这里插入图片描述
  3. 终止条件

    • 达到最大迭代次数,或梯度变化小于阈值。

4. 代码实现(Python)

import numpy as npdef gradient_descent(X, y, learning_rate=0.01, epochs=1000):m, n = X.shape  # m:样本数, n:特征数w = np.zeros(n)  # 初始化权重b = 0            # 初始化偏置history = []     # 记录损失变化for epoch in range(epochs):# 计算预测值y_pred = np.dot(X, w) + b# 计算梯度dw = (1/m) * np.dot(X.T, (y_pred - y))  # X.T是X的转置db = (1/m) * np.sum(y_pred - y)# 更新参数w -= learning_rate * dwb -= learning_rate * db# 记录损失(可选)loss = np.mean((y_pred - y)**2)history.append(loss)return w, b, history# 示例数据(添加偏置列)
X = np.array([[1, 2], [2, 3], [3, 4]])  # 2个特征
y = np.array([5, 8, 11])                 # y = 1*x1 + 2*x2 + 0# 运行梯度下降
w, b, history = gradient_descent(X, y, learning_rate=0.01, epochs=1000)
print("权重 w:", w)  # 应接近 [1., 2.]
print("偏置 b:", b)  # 应接近 0.

5. 关键细节

(1) 特征缩放(Feature Scaling)

  • 如果特征量纲差异大(如 ( x_1 \in [0,1] ), ( x_2 \in [100,1000] )),需先归一化:
    from sklearn.preprocessing import StandardScaler
    scaler = StandardScaler()
    X_scaled = scaler.fit_transform(X)
    
  • 原因:梯度下降在不同方向上的步长一致,量纲不均会导致收敛缓慢。

(2) 学习率选择

  • 太大(如 ( \alpha=1 )):可能发散(损失震荡上升)。
  • 太小(如 ( \alpha=10^{-6} )):收敛过慢。
  • 建议:尝试 ( \alpha=0.01, 0.001 ),观察损失曲线调整。

(3) 收敛判断

  • 监控损失函数 ( J(\mathbf{w}, b) ) 的变化,若连续几轮下降幅度小于阈值(如 ( 10^{-6} )),可提前终止。

6. 与解析解对比

  • 梯度下降:迭代逼近最优解,适合大规模数据(( m > 10^4 ))。
  • 解析解(正规方程):直接求闭式解 ( \mathbf{w} = (\mathbf{X}^T \mathbf{X})^{-1} \mathbf{X}^T \mathbf{y} ),但计算复杂度高(( O(n^3) )),仅适用于小规模数据。

7. 总结


|

核心公式

梯度下降是机器学习优化的基石,理解它才能掌握更复杂的模型(如逻辑回归、神经网络)!


http://www.dtcms.com/wzjs/23399.html

相关文章:

  • 深圳网站建设定制seo包括哪些方面
  • 网站文章图片如何跳转乔拓云网微信小程序制作
  • 网站建设与维护里面的个人简历最好的网络营销软件
  • app商城网站开发长尾关键词快速排名软件
  • 网站建设较好的公司苹果被曝开发搜索引擎对标谷歌
  • 制作网站 太原好看的html网页
  • 如何确定网站栏目官网seo哪家公司好
  • 网站后台怎么做qq群自动加怎么被百度收录
  • 网址查询站长工具宁波网站建设的公司
  • 用外国人的照片做网站高端网站定制
  • 房和城乡建设部网站站长收录平台
  • 建设网站需要购买数据库吗搜索引擎优化的方法
  • 经济型网站建设网页设计html代码大全
  • 北京网站建设公司拟百度的营销推广
  • 网站怎么做留言区性价比高seo的排名优化
  • 株洲网站优化100%能上热门的文案
  • 伊春网站建设佛山网站优化服务
  • 怎么找人做网站啊安徽seo推广公司
  • 绵阳欣诚建设宁波seo推广联系方法
  • 百度站长 添加网站百度旗下产品
  • 区县12380网站建设情况seo有哪些作用
  • 企业网站怎么制作流程南京网站建设
  • 成都平面设计公司有哪些绍兴百度seo
  • wordpress 运行效率汉川seo推广
  • 内部劵网站怎么做关键词推广系统
  • 威海百姓网免费发布信息网seo关键词优化技巧
  • 常州网站推广软件seo属于什么
  • 电脑怎么创建网站吗seo技巧优化
  • 平台营销型网站建设深圳居家办公
  • 太原做微网站的公司培训心得体会总结