当前位置: 首页 > news >正文

SVD分解后的各个矩阵的深层理解

文章目录

svd分解的三个矩阵的含义

奇异值分解(Singular Value Decomposition, SVD)是一个强大的矩阵分解工具,它可以将任何一个 m×nm \times nm×n 的矩阵 AAA 分解为三个矩阵的乘积:

A=UΣVTA = U \Sigma V^T A=UΣVT

其中:

  • AAA 是一个 m×nm \times nm×n 的实数矩阵。

这三个矩阵各自有其深刻的数学含义和在数据分析、机器学习等领域的实际应用意义。

1. 矩阵 UUU (Left Singular Vectors / 左奇异向量)

  • 形状: m×mm \times mm×m 的正交矩阵(Orthogonal Matrix)。
    • 这意味着 UTU=IU^T U = IUTU=I (单位矩阵),所以 U−1=UTU^{-1} = U^TU1=UT
  • 含义:
    1. 列空间的正交基: UUU 的列向量是矩阵 AATA A^TAAT 的特征向量,它们构成 AAA列空间(Column Space)的一组标准正交基(Orthonormal Basis)
    2. 行数据的特征/模式: 在数据分析中,如果 AAA 的行代表样本(例如,文档),列代表特征(例如,词语),那么 UUU 的列向量可以被解释为潜在的语义概念、主题或模式。它们表示了原始数据(尤其是行)在新的、抽象维度上的表达。
    3. 数据变换: UUU 可以看作是对 AAA 的行空间进行的一个旋转或反射变换,将原始行数据映射到一个新的、由左奇异向量定义的正交空间中。
    4. 在PCA中的对应:AAA 是中心化后的数据矩阵时,AATA A^TAAT 的特征向量(即 UUU 的列)与数据的主成分分析(PCA)中的主成分方向密切相关。

2. 矩阵 Σ\SigmaΣ (Singular Values / 奇异值)

  • 形状: m×nm \times nm×n 的对角矩阵(Diagonal Matrix),其对角线上的元素是非负实数。
    • 对角线上的元素 σ1,σ2,…,σmin⁡(m,n)\sigma_1, \sigma_2, \ldots, \sigma_{\min(m,n)}σ1,σ2,,σmin(m,n) 被称为奇异值,它们通常按降序排列:σ1≥σ2≥…≥σmin⁡(m,n)≥0\sigma_1 \ge \sigma_2 \ge \ldots \ge \sigma_{\min(m,n)} \ge 0σ1σ2σmin(m,n)0
    • 非对角线上的元素均为0。
    • 如果 m≠nm \ne nm=n,则除了左上角的 min⁡(m,n)×min⁡(m,n)\min(m,n) \times \min(m,n)min(m,n)×min(m,n) 子矩阵外,其余部分均为0。
  • 含义:
    1. 重要性/强度: 每个奇异值 σi\sigma_iσi 衡量了其对应的左奇异向量(U的第 iii 列)和右奇异向量(V的第 iii 列)所代表的“模式”或“维度”的重要性或强度。奇异值越大,表示该维度在原始数据中承载的信息(或方差)越多。
    2. 数据维度: 非零奇异值的数量等于矩阵 AAA秩(Rank)
    3. 能量/信息: 奇异值可以被视为数据中“能量”或“信息”的量化。在数据降维或压缩中,我们通常保留最大的几个奇异值及其对应的奇异向量,因为它们捕捉了数据中最重要的结构。
    4. 几何拉伸因子: 在几何上,矩阵 AAA 可以被看作是一个线性变换,它将单位球体映射成一个椭球体。奇异值就是这个椭球体的半轴长度

3. 矩阵 VTV^TVT (Right Singular Vectors - Transposed / 右奇异向量的转置)

  • 形状: n×nn \times nn×n 的正交矩阵的转置。
    • 这意味着 VTV=IV^T V = IVTV=I (单位矩阵),所以 V−1=VTV^{-1} = V^TV1=VT
    • VVV 的列向量(即 VTV^TVT 的行向量)是矩阵 ATAA^T AATA 的特征向量。
  • 含义:
    1. 行空间的正交基: VVV 的列向量(或 VTV^TVT 的行向量)构成 AAA行空间(Row Space)的一组标准正交基
    2. 列数据的特征/模式: 在数据分析中,如果 AAA 的行代表样本,列代表特征,那么 VVV 的列向量可以被解释为原始特征(列)在新的、抽象维度上的组合或模式。它们表示了原始数据(尤其是列)在新的、抽象维度上的表达。
    3. 数据变换: VTV^TVT 可以看作是对 AAA 的列空间进行的一个旋转或反射变换,将原始列数据映射到一个新的、由右奇异向量定义的正交空间中。
    4. 在PCA中的对应:AAA 是中心化后的数据矩阵时,ATAA^T AATA 的特征向量(即 VVV 的列)与数据的主成分分析(PCA)中的主成分方向是完全一致的。

总结和几何解释

SVD 提供了一种非常直观的理解矩阵线性变换的方式:

任何一个线性变换(由矩阵 AAA 表示)都可以被分解为三个基本操作的序列:

  1. 旋转或反射:VTV^TVT 完成,它将输入空间(例如,单位球体)旋转或反射到一个新的正交坐标系。
  2. 缩放或拉伸:Σ\SigmaΣ 完成,它沿着新的坐标轴(由 VTV^TVT 定义)进行缩放,缩放因子就是奇异值。
  3. 另一个旋转或反射:UUU 完成,它将缩放后的空间旋转或反射到输出空间。

简而言之:

  • UUU 描述了行空间的变化(或输出空间的新基)。
  • Σ\SigmaΣ 描述了每个维度(或概念)的重要性或强度。
  • VTV^TVT 描述了列空间的变化(或输入空间的新基)。

通过 SVD,我们可以揭示矩阵内部最本质的线性结构,这使得它在数据压缩、降维(如PCA)、推荐系统、图像处理、信号处理和自然语言处理等领域都有广泛的应用。例如,在低秩近似中,我们可以只保留最大的 kkk 个奇异值和对应的 kkk 个奇异向量,从而用更少的存储空间来近似原始矩阵,同时保留大部分重要信息。

V的列向量们表示的A矩阵行空间的标准正交基

SVD 与 ATAA^T AATA 的关系

矩阵 VVV 的列向量(或 VTV^TVT 的行向量)被称为右奇异向量(Right Singular Vectors)。它们是矩阵 ATAA^T AATA 的特征向量。

让我们推导一下:
ATA=(UΣVT)T(UΣVT)A^T A = (U \Sigma V^T)^T (U \Sigma V^T) ATA=(UΣVT)T(UΣVT)
ATA=(VΣTUT)(UΣVT)A^T A = (V \Sigma^T U^T) (U \Sigma V^T) ATA=(VΣTUT)(UΣVT)
由于 UUU 是正交矩阵,所以 UTU=IU^T U = IUTU=I (单位矩阵)。
ATA=VΣTIΣVTA^T A = V \Sigma^T I \Sigma V^T ATA=VΣTIΣVT
ATA=V(ΣTΣ)VTA^T A = V (\Sigma^T \Sigma) V^T ATA=V(ΣTΣ)VT

现在,我们来看 ΣTΣ\Sigma^T \SigmaΣTΣ
Σ\SigmaΣ 是一个 m×nm \times nm×n 的对角矩阵,其对角线元素是奇异值 σ1,σ2,…,σmin⁡(m,n)\sigma_1, \sigma_2, \ldots, \sigma_{\min(m,n)}σ1,σ2,,σmin(m,n)
ΣTΣ\Sigma^T \SigmaΣTΣ 将是一个 n×nn \times nn×n 的对角矩阵,其对角线元素是奇异值的平方:
ΣTΣ=diag(σ12,σ22,…,σr2,0,…,0)\Sigma^T \Sigma = \text{diag}(\sigma_1^2, \sigma_2^2, \ldots, \sigma_r^2, 0, \ldots, 0) ΣTΣ=diag(σ12,σ22,,σr2,0,,0)
其中 rrr 是矩阵 AAA 的秩(即非零奇异值的数量)。

所以,ATA=Vdiag(σ12,…,σr2,0,…,0)VTA^T A = V \text{diag}(\sigma_1^2, \ldots, \sigma_r^2, 0, \ldots, 0) V^TATA=Vdiag(σ12,,σr2,0,,0)VT
这正是矩阵 ATAA^T AATA特征值分解形式:

  • VVV 的列向量是 ATAA^T AATA 的特征向量。
  • diag(σ12,…,σr2,0,…,0)\text{diag}(\sigma_1^2, \ldots, \sigma_r^2, 0, \ldots, 0)diag(σ12,,σr2,0,,0)ATAA^T AATA 的特征值。

什么是行空间、基

行空间 (Row Space)
  • 定义: 对于一个 m×nm \times nm×n 的矩阵 AAA,它的行空间是由矩阵 AAA 的所有行向量的线性组合所构成的向量空间。
  • 简单来说: 如果你把矩阵的每一行看作一个向量,那么行空间就是这些向量所能“张成”(span)的所有向量的集合。也就是说,行空间包含了所有可以表示为 c1r1+c2r2+⋯+cmrmc_1 \mathbf{r}_1 + c_2 \mathbf{r}_2 + \dots + c_m \mathbf{r}_mc1r1+c2r2++cmrm 的向量,其中 ri\mathbf{r}_iri 是矩阵 AAA 的第 iii 行向量,cic_ici 是任意标量。
  • 维度: 行空间的维度等于矩阵的秩(Rank)
基 (Basis)
  • 定义: 对于一个向量空间(比如行空间),它的“基”是一组特殊的向量,满足两个条件:
    1. 线性无关 (Linearly Independent): 这组向量中,没有一个向量可以表示为其他向量的线性组合。
    2. 张成 (Spans): 这组向量的线性组合可以生成向量空间中的所有向量。
  • 简单来说: 基就像是向量空间的“骨架”或“坐标轴”。它是用最少的向量来完全描述整个向量空间。任何在向量空间中的向量都可以且只能唯一地表示为基向量的线性组合。
  • 数量: 基中向量的数量等于向量空间的维度。

行空间与 ATAA^T AATA 的特征向量

在线性代数中,有一个重要的定理:
矩阵 AAA 的行空间(Row Space)是由 ATAA^T AATA 的对应于非零特征值的特征向量所张成的。(也就是A的行向量可以由V的列向量线性组合)
或者说,这些特征向量构成行空间的一组标准正交基。

结合前面的推导:

  • ATAA^T AATA 的非零特征值是 σ12,…,σr2\sigma_1^2, \ldots, \sigma_r^2σ12,,σr2
  • 对应这些非零特征值的特征向量就是矩阵 VVV 的前 rrr 列。

因此,矩阵 VVV 的前 rrr 列(即对应于非零奇异值的右奇异向量)构成矩阵 AAA 的行空间的一组标准正交基。
(而 VVV 的后 n−rn-rnr 列,对应于零奇异值,则构成 AAA 的零空间(Null Space)的一组标准正交基)。

为什么V的列向量往往是最小二乘的解(“V的列向量 (或 V^T 的行向量)” 的含义)

  • VVV 是一个正交矩阵,其列向量是相互正交的单位向量。 VVV 的列向量(也就是右奇异向量)提供了矩阵 AAA 的行空间的一组标准正交基

  • VVV的列向量表示A的行向量信息变化的方向,列向量对应的奇异值表示A行向量信息在对应方向的变化大小所以V的对应最小奇异值的列向量是Ax=0Ax=0Ax=0的解。 例如:在进行平面拟合的时候,A的行向量是每个三维点的齐次坐标,V的列向量表示的是A的行向量变化的各个方向,奇异值大小反应变化的大小,所以V的奇异值最小值对应的列向量刚好平面点云变化最小的方向,也就是平面的法向量。

V作为“A行空间的正交基”就是指

  1. 一组向量,它们都位于矩阵 AAA 的行空间中。
  2. 这组向量是线性无关的。
  3. 这组向量可以张成(生成)整个行空间。
  4. 这组向量中的任意两个向量都是相互垂直的(正交的)。
  5. (如果是标准正交基)这组向量中的每个向量的长度都为1。

V矩阵的意义:

  • 降维和特征提取: 通过选择这些基向量中最重要的几个(对应于最大的奇异值),我们可以捕捉到原始数据(行)中最主要的特征和结构,实现数据的降维。
  • 数据变换: 将原始数据投影到由这些正交基向量形成的新坐标系中,可以消除数据中的冗余信息,使得数据在新的维度上是独立的,这在机器学习和数据分析中非常有用。
  • 数学美感和计算稳定性: 正交基在数学上具有很好的性质,例如方便计算投影、更容易进行数值稳定运算等。

总结

简单来说,SVD 通过 VVV 矩阵为我们提供了一个“最佳”的、正交的坐标系,来理解和表示矩阵 AAA 的行所代表的数据。 更具体地,是对应于非零奇异值的那些 VVV 的列向量构成了行空间的正交基。 这些基向量是“特殊”的,因为它们不仅是正交的,而且它们还是 ATAA^T AATA 的特征向量。这意味着它们代表了数据(矩阵的行)中最重要的、相互独立的变化方向。

V的列向量在主成分分析中的意义

在奇异值分解(SVD)中,矩阵 VVV 中对应于最小奇异值(或 ATAA^T AATA 的最小特征值)的列向量,表示了矩阵 AAA 的行数据中变化(或方差)最小的方向

我们来详细解释一下:

SVD 和 ATAA^T AATA 的关系

矩阵 AAA 的 SVD 是 A=UΣVTA = U \Sigma V^TA=UΣVT
其中:

  • UUU 的列向量是左奇异向量。
  • Σ\SigmaΣ 的对角线元素是奇异值 σi\sigma_iσi,通常按降序排列:σ1≥σ2≥⋯≥σn≥0\sigma_1 \ge \sigma_2 \ge \dots \ge \sigma_n \ge 0σ1σ2σn0
  • VVV 的列向量是右奇异向量,它们是 ATAA^T AATA 的特征向量。

我们知道 ATA=VΣTΣVTA^T A = V \Sigma^T \Sigma V^TATA=VΣTΣVT
这里的 ΣTΣ\Sigma^T \SigmaΣTΣ 是一个对角矩阵,其对角线元素是奇异值的平方 σi2\sigma_i^2σi2
所以,ATAA^T AATA 的特征值是 σi2\sigma_i^2σi2,而 VVV 的列向量就是对应的特征向量。

奇异值和变化/方差的关系

  1. 数据的表示:
    如果我们将矩阵 AAA 视为一个数据矩阵,其中每一行是一个样本,每一列是一个特征。那么 AAA 的行空间描述了这些样本在特征空间中的分布。

  2. 右奇异向量作为方向:
    VVV 的列向量 (v1,v2,…,vnv_1, v_2, \dots, v_nv1,v2,,vn) 构成了一个由 nnn 个相互正交的单位向量组成的基。这些向量可以看作是特征空间中的方向

  3. 奇异值作为重要性/方差:
    每个奇异值 σi\sigma_iσi 衡量了其对应的右奇异向量 viv_ivi 所代表的这个方向上,数据(矩阵 AAA 的行)的重要性、强度或“变化量”
    更具体地说,当我们将 AAA 的行数据投影到 viv_ivi 方向上时,这些投影的方差σi2\sigma_i^2σi2 成正比。

    • 较大的奇异值 σi\sigma_iσi 意味着数据在对应方向 viv_ivi 上有较大的变化或分散程度。这个方向捕捉了数据中最重要的结构或信息。
    • 较小的奇异值 σi\sigma_iσi 意味着数据在对应方向 viv_ivi 上的变化或分散程度很小。这个方向上的信息量较少,或者数据点在这个方向上非常接近。
    • 奇异值为零 σi=0\sigma_i = 0σi=0 意味着数据在对应方向 viv_ivi 上根本没有变化。所有的行向量在该方向上的投影都为零(或者说,该方向与数据的行空间正交,它属于矩阵 AAA 的零空间)。

为什么是“行变化最小的方向”?

  • SVD 按照奇异值从大到小排列。因此,v1v_1v1 对应最大的 σ1\sigma_1σ1,表示数据变化最大的方向;vnv_nvn 对应最小的 σn\sigma_nσn,表示数据变化最小的方向。
  • 这个“变化”可以理解为数据点(矩阵的行)在某个方向上的分散程度或方差
  • 因此,VVV 中对应最小奇异值的列向量,确实代表了原始数据(矩阵 AAA 的行)在 nnn 维特征空间中变化最不明显、最不重要或包含信息最少的方向。

实际应用

  1. 降维(Dimensionality Reduction): 在PCA等技术中,我们通常会丢弃对应于较小奇异值的维度(即 VVV 的后几列),因为它们携带的信息量少,甚至可能是噪声,从而实现数据压缩和去噪。
  2. 数据去噪: 小的奇异值往往与数据中的噪声相关联。通过截断 SVD(只保留大的奇异值),可以有效去除噪声。
  3. 线性依赖: 如果一个奇异值 σi=0\sigma_i = 0σi=0,那么对应的右奇异向量 viv_ivi 位于矩阵 AAA零空间中。这意味着 Avi=0A v_i = 0Avi=0,表示矩阵 AAA 的列之间存在线性依赖关系,或者说 viv_iviAAA 无法“看到”的方向。
  4. 常用在求解最小二乘问题分析当中,比如平面拟合,直线拟合解为什么分别对应的V最小奇异值列向量和最大奇异值列向量。

总结:

是的,矩阵 VVV 中与最小奇异值相关联的列向量(右奇异向量),确实指示了矩阵 AAA 的行数据中变化或方差最小的方向。

U在主成分分析里的意义

在奇异值分解 A=UΣVTA = U \Sigma V^TA=UΣVT 中:

  1. UUU 的列向量(左奇异向量):它们是矩阵 AATA A^TAAT 的特征向量,并且构成矩阵 AAA 的**列空间(Column Space)**的一组标准正交基。
  2. Σ\SigmaΣ 的对角线元素(奇异值 σi\sigma_iσi:每个奇异值 σi\sigma_iσi 衡量了其对应的左奇异向量 uiu_iuiUUU 的第 iii 列)所代表的方向上,矩阵 AAA列数据重要性或“变化量”

为什么 UUU 中对应最小特征值的列向量表示 AAA 中列向量变化最小的方向?

  • 奇异值的物理意义: 每个奇异值 σi\sigma_iσi 表示了原始数据(无论是 AAA 的行还是 AAA 的列)在相应奇异向量方向上的“能量”或“方差”大小。

    • 对于右奇异向量 viv_iviVVV 的列),它描述了 AAA行向量在特征空间(输入空间)中的变化方向。
    • 对于左奇异向量 uiu_iuiUUU 的列),它描述了 AAA列向量在样本空间(输出空间)中的变化方向。
  • 排序的奇异值: 奇异值 σ1≥σ2≥⋯≥σmin⁡(m,n)≥0\sigma_1 \ge \sigma_2 \ge \dots \ge \sigma_{\min(m,n)} \ge 0σ1σ2σmin(m,n)0 总是按降序排列。

    • 最大的奇异值 σ1\sigma_1σ1 及其对应的 u1u_1u1v1v_1v1 捕捉了数据中最大的变化(方差)方向。
    • 最小的奇异值 σmin⁡(m,n)\sigma_{\min(m,n)}σmin(m,n) 及其对应的 umin⁡(m,n)u_{\min(m,n)}umin(m,n)vmin⁡(m,n)v_{\min(m,n)}vmin(m,n) 捕捉了数据中最小的变化(方差)方向。

因此,UUU 中对应最小奇异值 σmin⁡(m,n)\sigma_{\min(m,n)}σmin(m,n) 的列向量 umin⁡(m,n)u_{\min(m,n)}umin(m,n),表示了矩阵 AAA 的列向量中变化(或方差)最小的方向

总结:

  • VVV 的列向量:构成了 AAA行空间的正交基,代表了 AAA(通常是样本)在特征空间中的主要变化方向。
  • UUU 的列向量:构成了 AAA列空间的正交基,代表了 AAA(通常是特征或者数据点在输出空间中的表达)在样本空间中的主要变化方向。

两者都与奇异值关联,大的奇异值对应大的变化方向,小的奇异值对应小的变化方向。所以,无论是 UUU 还是 VVV,其对应最小奇异值的列向量都表示了在各自空间中数据变化最小的方向。

http://www.dtcms.com/a/574246.html

相关文章:

  • 【ZYNQ杂记】Debug模式下可以运行的程序但固化后运行卡死
  • Spring Boot 响应拦截器(Jackson)实现时间戳自动添加
  • 网站开发与服务合同wordpress 商城系统
  • 郑州企业网站怎么优化保障性租赁住房管理平台
  • 系列文章<十>(从LED显示屏的低灰跳灰(线性度不好)问题问题问题到手机影像):从LED冬奥会、奥运会及春晚等大屏,到手机小屏,快来挖一挖里面都有什么
  • 自动化测试-pytest框架-进阶
  • 学习做网站的网站wordpress 教程 插件
  • (2)pytest+Selenium自动化测试-环境准备
  • 【项目】小型支付商城 MVC/DDD
  • uni-app开发app移动端使用ucharts自定义标签栏Tooltip
  • 《uni-app跨平台开发完全指南》- 03 - Vue.js基础入门
  • uniapp中的静态资源文件,如图片等文件,h5端设置本地与生产测试环境的区别,本地不加前缀,生产测试添加前缀,h5端的已进行测试可行,非h5的未进行测试
  • uni-app + Vue3 实现折叠文本(超出省略 + 展开收起)
  • 云南微网站搭建wordpress插件安装不
  • 汽车行业网站设计chrome google
  • 好用的云电脑!手机怎么用UU远程云电脑玩电脑游戏?
  • 网站开发安装网站原型图软件
  • 坑#Spring Cloud Gateway#DataBufferLimitException
  • 15年做哪些网站能致富网页升级访问紧急通知狼
  • ping: baidu.com: 域名解析暂时失败
  • 上海网站设计方法有哪些网站上可以做试卷
  • 网站建设项目立项登记 表自己家的电脑宽带50m做网站服务器
  • 宜宾公司做网站建设一个电子文学网站资金多少
  • 效率提升的声音助手——工业物联网中的智能化变革
  • 普罗宇宙发布大白机器人2.0 及灵巧手,携手京东加速全球化落地
  • Java 集合框架:List 体系与实现类深度解析
  • 阿里云 ip 网站哈尔滨行业网站建设策划
  • 注册了网站怎么建设网站视听内容建设
  • 泉州专业做网站网上做网站怎么防止被骗
  • 使用 ECharts + ECharts-GL 生成 3D 环形图