当前位置: 首页 > news >正文

【机器学习深度学习】机器学习核心的计算公式:wx+b

目录

前言

一、什么是 wx + b?

二、通俗理解:加权打分 + 起步线

三、数学角度:向量点积 + 偏移

四、在机器学习中的应用

📊 1. 线性回归

✅ 2. 逻辑回归

🧠 3. 神经网络

📦 PyTorch 示例

五、可视化理解

六、总结一句话

七、延伸阅读


前言

在机器学习或深度学习的世界里,有一个公式几乎无处不在,它简单到只有三个符号,却撑起了整个模型计算的核心。

它就是:

wx + b

或在向量表示中:

y = w · x + b

你可能已经在学习线性回归、神经网络、逻辑回归时见过它,但你真的理解它在做什么吗?它为什么如此重要?

今天这篇文章,将带你从通俗的生活类比出发,深入剖析这个公式,帮你真正理解它背后的原理与应用。


一、什么是 wx + b?

这是一个线性变换公式,在机器学习中表示一个输入向量 x 经过权重向量 w 的加权求和后,再加上一个常数偏置项 b,输出一个预测结果 y。

公式拆解如下:

部分含义
x输入特征向量,例如:身高、体重、年龄等
w权重向量,表示每个特征的重要程度
b偏置项(bias),控制模型的输出起点
wxw·x加权求和,即 w 和 x 的点积
wx + b输出值,也就是预测结果(y)

1、什么是偏置项?

偏置项是一个常数项,用来让模型在没有输入或输入为零时,仍然可以产生非零输出。它就像函数的“起点”或“截距”。


2、通俗类比:偏置就像“起跑线”

想象你在画一条线:

y = w·x + b
  • w·x 决定了斜率(线的方向和陡度)

  • b 决定了这条线在 y 轴上的起点(截距)

如果没有偏置项,那么所有模型输出都会必须经过原点 (0,0),这样模型就很“死板”,缺乏灵活性。

🧭 偏置项就像把这条线上下平移的“控制杆”,它让模型可以更好地“对齐”数据。


3、可视化例子

没有偏置项时(b=0):

  • 假设你要拟合一组数据点,它们明显不经过原点(0,0),但你硬让模型从原点画一条线,肯定效果很差。

有偏置项时:

  • 模型可以“把整条线抬起来或降下来”,这样更容易拟合真实数据。


4、偏置项的作用

功能解释
移动输出起点类似截距,控制模型输出起点的位置
增强拟合能力让模型更容易拟合偏移的数据
提高学习灵活性支持神经元激活函数在更灵活区间工作
是可训练参数模型会自动学习最优的偏置值

二、通俗理解:加权打分 + 起步线

想象一个场景,你作为 HR,要判断一个求职者是否适合当程序员。

你考虑的因素包括:

  • 编程经验(x₁)

  • 英语水平(x₂)

  • 数学能力(x₃)

你在心里给出每个因素的权重:

  • 编程经验更重要 → w₁ = 0.6

  • 英语水平也挺重要 → w₂ = 0.3

  • 数学能力一般 → w₃ = 0.1

于是你用下面这套逻辑打分:

得分 = 0.6×x₁ + 0.3×x₂ + 0.1×x₃ + b

这个打分过程就是典型的 wx + b每个输入特征乘以权重,加在一起,最后加一个起始值 b。

这个 b 可以理解为你整体倾向于录取或拒绝的“初始态度”。


三、数学角度:向量点积 + 偏移

在数学中,wx 实际上是向量 wx 的点积:

w = [w₁, w₂, w₃]  
x = [x₁, x₂, x₃]  
w · x = w₁x₁ + w₂x₂ + w₃x₃

再加上偏置 b,就是:

y = w · x + b

这是一个线性函数,在几何上表示一条超平面,模型要做的就是通过不断调整 wb 来让这条线更好地“划分”或“拟合”数据。


四、在机器学习中的应用

几乎所有的模型都离不开 wx + b,只是加上了不同的处理方式。

📊 1. 线性回归

用于预测连续值(如房价):

y = wx + b

✅ 2. 逻辑回归

用于二分类(如患病 vs 未患病):

y = sigmoid(wx + b)

🧠 3. 神经网络

每一个神经元(node)的输出都是:、

y = activation(wx + b)

比如:

ReLU(wx + b)
tanh(wx + b)

📦 PyTorch 示例

import torch
import torch.nn as nnmodel = nn.Linear(3, 1)  # 3个输入特征 → 输出1个值x = torch.tensor([[1.0, 2.0, 3.0]])  # 一个样本
output = model(x)  # 自动完成 wx + b
print(output)
模型wx + b 的作用
线性回归拟合连续变量,如房价预测
逻辑回归做二分类预测,如是否患病
感知机/神经网络是每一层的基本单元(神经元)中的前向计算核心
Transformer在注意力机制中也有线性变换步骤

五、可视化理解

你可以把 wx + b 想象成一个“滑动控制线”的过程:

  • w 决定了线的斜率(方向)

  • b 决定了这条线往上还是往下平移

在多维空间中,这条“线”扩展成“超平面”,模型的任务就是找到这个超平面,让它尽可能准确地将不同的数据类别分开。


六、总结一句话

wx + b 就是机器学习中每一个模型背后都在重复使用的“打分公式”,它将输入特征与模型的“判断标准”结合,最终输出一个决策依据。

它不仅是神经网络中每一层的核心计算单元,也是所有线性模型的出发点。


七、延伸阅读

  • 深入理解神经网络中的线性变换

  • 从线性回归到深度学习的演变路径

  • 激活函数作用:为何不能只靠 wx + b

  • 神经网络中的偏置项详解 – Medium 英文版

  • PyTorch 中 Linear 层的偏置项如何工作?

相关文章:

  • XSD是什么,与XML关系
  • 麒麟系统上设置Firefox自动化测试环境:指定Marionette端口号
  • OpenHarmony中默认export 添加环境变量
  • JVM线上调试
  • 端到端数据标注方案在自动驾驶领域的应用优势
  • 第九章:LORA
  • 小触控APP:高效自动连点,解放双手
  • 如何预测与控制多项目中的人员负载过高
  • 什么是 Sentinel?
  • Bug闭环解决之道:主流Bug追踪工具优劣对比
  • 把握技术风口,链接优质资源——2025深圳国际全触与显示展重磅推出六大新技术展区,布局新蓝海
  • 【第二章:机器学习与神经网络概述】03.类算法理论与实践-(2)朴素贝叶斯分类器
  • 数据集笔记:中国公交路线线路
  • 纯血HarmonyOS5 打造小游戏实践:扫雷(附源文件)
  • 基于 Spark 实现 COS 海量数据处理
  • Java底层原理:深入理解类加载机制与反射
  • 运维打铁: Windows 服务器基础运维要点解析
  • 2025年- H89-Lc197-- 5. 最长回文子串(多维动态规划)--Java版
  • 【技术分享】XR技术体系浅析:VR、AR与MR的区别、联系与应用实践
  • Web开发中的多媒体元素
  • 有哪些新手做外链的网站/seo网络培训机构
  • 数据库型网站/企业网络营销推广案例
  • 企业网站开发韵茵/常见的网络推广方式包括
  • 河南建设厅网站/seo推广具体做什么
  • 北京网站推广/中国互联网电视app下载安装
  • 网站建设平台的分析/网页优化seo公司