当前位置: 首页 > wzjs >正文

网站页面 原则seo关键词排名优化教程

网站页面 原则,seo关键词排名优化教程,国内现货正规交易平台,新增备案网站要关闭吗多元线性回归的梯度下降法详解 多元线性回归(Multiple Linear Regression)是多个自变量(特征)与一个因变量(目标)之间的线性关系建模,梯度下降法用于优化模型参数(权重和偏置&#…

多元线性回归的梯度下降法详解

多元线性回归(Multiple Linear Regression)是多个自变量(特征)与一个因变量(目标)之间的线性关系建模,梯度下降法用于优化模型参数(权重和偏置),最小化预测误差(如均方误差)。


1. 模型定义

(1) 假设函数(Hypothesis)

对于 ( n ) 个特征 ( x_1, x_2, \dots, x_n ) 和参数 ( w_1, w_2, \dots, w_n, b ),预测值 ( \hat{y} ) 为:
在这里插入图片描述

(2) 代价函数(Cost Function)

使用**均方误差(MSE)**衡量预测值与真实值的差距:
在这里插入图片描述


2. 梯度下降法

(1) 参数更新公式

对每个参数 ( w_j ) 和偏置 ( b ),沿梯度反方向更新:
在这里插入图片描述
在这里插入图片描述


3. 算法步骤

  1. 初始化参数

    • 权重 ( \mathbf{w} ) 和偏置 ( b ) 初始化为0或随机小值。
  2. 迭代更新

    • 计算当前参数下的预测值 ( \hat{y} )。
    • 计算梯度 ( \nabla_{\mathbf{w}} J ) 和 ( \frac{\partial J}{\partial b} )。
    • 更新参数:
      在这里插入图片描述
  3. 终止条件

    • 达到最大迭代次数,或梯度变化小于阈值。

4. 代码实现(Python)

import numpy as npdef gradient_descent(X, y, learning_rate=0.01, epochs=1000):m, n = X.shape  # m:样本数, n:特征数w = np.zeros(n)  # 初始化权重b = 0            # 初始化偏置history = []     # 记录损失变化for epoch in range(epochs):# 计算预测值y_pred = np.dot(X, w) + b# 计算梯度dw = (1/m) * np.dot(X.T, (y_pred - y))  # X.T是X的转置db = (1/m) * np.sum(y_pred - y)# 更新参数w -= learning_rate * dwb -= learning_rate * db# 记录损失(可选)loss = np.mean((y_pred - y)**2)history.append(loss)return w, b, history# 示例数据(添加偏置列)
X = np.array([[1, 2], [2, 3], [3, 4]])  # 2个特征
y = np.array([5, 8, 11])                 # y = 1*x1 + 2*x2 + 0# 运行梯度下降
w, b, history = gradient_descent(X, y, learning_rate=0.01, epochs=1000)
print("权重 w:", w)  # 应接近 [1., 2.]
print("偏置 b:", b)  # 应接近 0.

5. 关键细节

(1) 特征缩放(Feature Scaling)

  • 如果特征量纲差异大(如 ( x_1 \in [0,1] ), ( x_2 \in [100,1000] )),需先归一化:
    from sklearn.preprocessing import StandardScaler
    scaler = StandardScaler()
    X_scaled = scaler.fit_transform(X)
    
  • 原因:梯度下降在不同方向上的步长一致,量纲不均会导致收敛缓慢。

(2) 学习率选择

  • 太大(如 ( \alpha=1 )):可能发散(损失震荡上升)。
  • 太小(如 ( \alpha=10^{-6} )):收敛过慢。
  • 建议:尝试 ( \alpha=0.01, 0.001 ),观察损失曲线调整。

(3) 收敛判断

  • 监控损失函数 ( J(\mathbf{w}, b) ) 的变化,若连续几轮下降幅度小于阈值(如 ( 10^{-6} )),可提前终止。

6. 与解析解对比

  • 梯度下降:迭代逼近最优解,适合大规模数据(( m > 10^4 ))。
  • 解析解(正规方程):直接求闭式解 ( \mathbf{w} = (\mathbf{X}^T \mathbf{X})^{-1} \mathbf{X}^T \mathbf{y} ),但计算复杂度高(( O(n^3) )),仅适用于小规模数据。

7. 总结


|

核心公式

梯度下降是机器学习优化的基石,理解它才能掌握更复杂的模型(如逻辑回归、神经网络)!


http://www.dtcms.com/wzjs/333616.html

相关文章:

  • 做胃肠科医院网站费用教育机构加盟
  • 网站怎么更新数据如何发布视频赚钱
  • 中山低价网站建设网络营销的特点不包括
  • 唯品会网站建设深圳网站建设公司
  • 做网站还是做公众号搜客通
  • 国际贸易网站开发优化大师官方免费
  • 中国基建人才网百度seo关键词优化电话
  • 做网站广州深圳外贸网络推广
  • 天津基础设施建设seo推广学院
  • 做网站需要什么软件网络建站公司
  • 中文编程江门seo推广公司
  • 贵阳网站建设方案百度指数的使用方法
  • 专门做颜料的网站武汉十大技能培训机构
  • 无为县住房建设局网站首页seo代码优化工具
  • wordpress安装到子目录湖南正规关键词优化
  • 科协网站建设的意见源码网站
  • 免费做翻页页面的网站百度官方入口
  • 郑州做网站建设公司排名百度推广天天打骚扰电话
  • 网站导航条和表格怎么做app注册接单平台
  • 做电影网站如何推广方案外包网络推广公司
  • 上海h5网站建设市场营销推广策划方案
  • 营销软件站网络营销的宏观环境
  • 淘宝网站维护武汉新一轮疫情
  • 国际财经新闻seo关键词软件
  • 用手机做网站的流程上海seo推广
  • 腾讯云做网站教程qq群推广拉人
  • 精彩网站制作站长统计官方网站
  • html个人网站源码淘宝推广平台有哪些
  • 仓储网站模板百度云登录首页
  • 网站空间需要多大武汉seo网站优化