当前位置: 首页 > news >正文

标量/向量/矩阵/张量/范数详解及其在机器学习中的应用

标量(Scalar)、向量(Vector)、矩阵(Matrix)、张量(Tensor)与范数(Norm)详解及其在机器学习中的应用

1. 标量(Scalar)
  • 定义:标量是单个数字,仅具有大小(Magnitude),没有方向。

    • 数学表示:如 a = 5 a = 5 a=5, b = − 3.2 b = -3.2 b=3.2
    • 特点:零维数据(0D Tensor)。
  • 机器学习中的应用

    • 模型参数:如线性回归中的偏置项(Bias)。
    • 损失函数输出:如均方误差(MSE)的结果是一个标量。
    • 超参数:学习率(Learning Rate)、正则化系数(Regularization Coefficient)等。
2. 向量(Vector)
  • 定义:向量是一维数组,既有大小又有方向,表示空间中的点或变化量。

    • 数学表示:如 v = [ v 1 , v 2 , … , v n ] T \mathbf{v} = [v_1, v_2, \dots, v_n]^T v=[v1,v2,,vn]T
    • 特点:一维数据(1D Tensor),可看作标量的有序集合。
  • 机器学习中的应用

    • 特征向量(Feature Vector):数据样本的数值化表示(如图像的像素值、文本的词频统计)。
    • 嵌入(Embedding):将离散数据(如单词、类别)映射为低维向量(如Word2Vec、GloVe)。
    • 梯度(Gradient):优化算法中参数更新的方向(如随机梯度下降SGD)。
    • 输出结果:分类任务中概率分布的输出(如Softmax后的向量)。
3. 矩阵(Matrix)
  • 定义:矩阵是二维数组,由行和列组成,可表示线性变换或数据关系。

    • 数学表示:如 A = [ a 11 a 12 a 21 a 22 ] \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} A=[a11a21a12a22]
    • 特点:二维数据(2D Tensor),矩阵运算(乘法、逆、特征分解)是核心工具。
  • 机器学习中的应用

    • 数据集表示:每行代表样本,每列代表特征(如表格型数据)。
    • 权重矩阵(Weight Matrix):神经网络中层与层之间的连接参数。
    • 核方法(Kernel Methods):支持向量机(SVM)中通过核矩阵计算高维相似性。
    • 矩阵分解:推荐系统(协同过滤)中将用户-物品评分矩阵分解为低秩矩阵。
4. 张量(Tensor)
  • 定义:张量是向量和矩阵的高维推广,表示多维数组。

    • 数学表示:三维张量 T ∈ R n × m × k \mathcal{T} \in \mathbb{R}^{n \times m \times k} TRn×m×k
    • 特点:N维数据(ND Tensor),如图像(3D:高×宽×通道)、视频(4D:帧×高×宽×通道)。
  • 机器学习中的应用

    • 图像处理:RGB图像表示为三维张量(如 224 × 224 × 3 224 \times 224 \times 3 224×224×3
    • 深度学习输入/输出:卷积神经网络(CNN)中张量在层间流动(如特征图Feature Maps)。
    • 自然语言处理(NLP):词嵌入矩阵(如 句子长度 × 词向量维度 \text{句子长度} \times \text{词向量维度} 句子长度×词向量维度
    • 高阶关系建模:张量分解用于知识图谱(如TransE模型)。
5. 范数(Norm)
  • 定义:范数是向量或矩阵的“长度”度量,用于量化大小、距离或复杂度。

    • 常见类型
      • L0范数:非零元素个数(常用于稀疏性约束)。
      • L1范数:绝对值之和( ∣ ∣ x ∣ ∣ 1 = ∑ ∣ x i ∣ ||\mathbf{x}||_1 = \sum |x_i| ∣∣x1=xi,稀疏性正则化。
      • L2范数:欧几里得范数( ∣ ∣ x ∣ ∣ 2 = ∑ x i 2 ||\mathbf{x}||_2 = \sqrt{\sum x_i^2} ∣∣x2=xi2 ,防止过拟合。
      • L∞范数:最大绝对值( ∣ ∣ x ∣ ∣ ∞ = max ⁡ ∣ x i ∣ ||\mathbf{x}||_\infty = \max |x_i| ∣∣x=maxxi
      • Frobenius范数:矩阵版本的L2范数( ∣ ∣ A ∣ ∣ F = ∑ a i j 2 ||\mathbf{A}||_F = \sqrt{\sum a_{ij}^2} ∣∣AF=aij2
  • 机器学习中的应用

    • 正则化(Regularization)
      • L1正则化(Lasso):使模型参数稀疏化,选择重要特征。
      • L2正则化(Ridge):限制参数大小,防止过拟合。
    • 优化算法
      • 梯度裁剪(Gradient Clipping):用L2范数限制梯度爆炸。
      • 距离计算:K近邻(KNN)中的欧氏距离(L2)或曼哈顿距离(L1)。
    • 模型评估
      • 均方误差(MSE)等价于预测值与真实值差向量的L2范数平方。
    • 嵌入学习:对比学习(Contrastive Learning)中用余弦相似度(基于L2归一化)。
总结:机器学习中的核心角色
概念核心作用典型应用
标量参数、超参数、损失值学习率、损失函数输出
向量特征表示、梯度更新特征向量、嵌入向量
矩阵数据存储、线性变换权重矩阵、协方差矩阵
张量高维数据建模图像、视频、特征图
范数正则化、距离度量L1/L2正则化、KNN
扩展思考
  • 张量与深度学习框架:PyTorch/TensorFlow中所有数据均以张量形式处理,支持GPU加速。
  • 范数选择的影响:L1稀疏性适合特征选择,L2稳定性适合参数约束。
  • 高阶应用:张量网络(Tensor Networks)用于压缩模型或建模复杂关系。

相关文章:

  • 第8章-1 查询性能优化-优化数据访问
  • 构建安全的机器学习推理API:基于FastAPI的用户认证与管理实战
  • 用R语言+随机森林玩转遥感空间预测-基于R语言机器学习遥感数据处理与模型空间预测技术及实际项目案例分析
  • AI工场全面激活电商创意链
  • 配置Hadoop集群-测试使用
  • 拆解 Prompt 工程:五大场景驱动 DeepSeek 超越 ChatGPT
  • Eclipse 插件开发 5 编辑器
  • 【优化策略】离散化
  • 项目改 pnpm 并使用 Monorepo 发布至 npm 上
  • Python----神经网络(《Going deeper with convolutions》论文解读和GoogLeNet网络)
  • gitignore的相关用法
  • 51单片机快速成长路径
  • Spring MVC中Controller是如何把数据传递给View的?
  • 2025ISCC练武校级赛部分题解WP
  • (1-1)Java的JDK、JRE、JVM三者间的关系
  • 可视化魔法指南
  • 如何检查 Watchtower 是否正常工作及更新未生效的排查方法【日常排错】
  • C语言学习之字符函数和字符串函数
  • 2025年五一假期旅游市场新趋势:理性消费、多元场景与科技赋能
  • C#管道通讯及传输信息丢失的原因
  • 邯郸一酒店办婚宴发生火灾,新郎母亲:饭没吃成酒店还要收费
  • 来论|建设性推进缅北和平进程——中国的智慧与担当
  • 44岁街舞运动推广者、浙江省街舞运动协会常务理事钟永玮离世
  • 圆桌丨中俄权威专家详解:两国携手维护战后国际秩序,捍卫国际公平正义
  • 德国新一届联邦政府宣誓就职
  • 郭旭涛转任河北省科协党组书记、常务副主席,曾任团省委书记