当前位置: 首页 > news >正文

wordpress 4.5 多站点不同数据品牌建站

wordpress 4.5 多站点不同数据,品牌建站,软件开发要多少钱,刚做的网站怎么PCA(主成分分析)降维详解一、什么是 PCAPCA(Principal Component Analysis,主成分分析)是一种常用的数据降维方法。它通过线性变换将原始的高维数据映射到低维空间,同时尽可能保留原数据的主要信息&#xf…


PCA(主成分分析)降维详解

一、什么是 PCA

PCA(Principal Component Analysis,主成分分析)是一种常用的数据降维方法。它通过线性变换将原始的高维数据映射到低维空间,同时尽可能保留原数据的主要信息(即方差信息)。

一句话总结:

PCA 找到数据变化最大的方向,把数据投影到这些方向上,从而减少维度、压缩数据,同时降低冗余和噪声。


二、PCA 的主要作用

  1. 数据降维
    减少特征数量,加快模型训练速度。

  2. 降噪
    去除方差较小、贡献不大的特征,减少噪声影响。

  3. 特征提取
    把原特征组合成新的主成分,减少相关性。

  4. 可视化
    将高维数据映射到二维或三维,方便绘图观察。


三、PCA 的核心思想

PCA 的核心思想是:

  1. 找到数据方差最大的方向(主成分方向)

  2. 将数据投影到这些方向上

  3. 选择前 k 个主成分作为新的特征空间

方差越大,表示数据在该方向的变化信息越多,保留它可以最大化信息量。


四、PCA 数学推导(简化版)

假设数据集为 X(已中心化):

  1. 计算协方差矩阵

  2. 求特征值和特征向量

    • 特征向量 vi 表示主成分方向

    • 特征值 λi 表示方差大小

  3. 按特征值从大到小排序
    取前 k 个特征向量组成投影矩阵 W

  4. 降维


五、PCA 实现步骤

  1. 数据标准化(均值为 0,方差为 1)

  2. 计算协方差矩阵

  3. 求特征值和特征向量

  4. 选择前 k 个主成分

  5. 将数据投影到新空间


六、PCA 的优缺点

优点

  • 降维有效,速度快

  • 去除冗余特征,减少过拟合

  • 对噪声有一定抑制作用

缺点

  • 仅适用于线性降维

  • 主成分是特征组合,不易解释含义

  • 对特征缩放敏感,需要标准化


七、PCA 应用场景

  • 图像压缩(如人脸识别中的特征提取)

  • 高维数据可视化(如基因数据、股票数据)

  • 机器学习前的数据预处理


八、PCA() 函数原型和参数表

class sklearn.decomposition.PCA(n_components=None,*,copy=True,whiten=False,svd_solver='auto',tol=0.0,iterated_power='auto',n_oversamples=10,power_iteration_normalizer='auto',random_state=None
)

参数类型 / 取值范围默认值作用说明
n_componentsint / float / 'mle' / NoneNone- int:降到指定维度- float ∈ (0,1]:保留的累计方差比例(svd_solver='full' 时有效)- 'mle':自动估计最佳维度(svd_solver='full' 时)- None:保留 min(n_samples, n_features) 个主成分
copyboolTrue是否在降维前复制数据,False 则在原数组上执行(可能修改原数据)
whitenboolFalse是否将输出的主成分缩放为单位方差(去相关+标准化),可能改变原数据的尺度含义
svd_solver'auto' / 'full' / 'arpack' / 'randomized' / 'covariance_eigh''auto'- 'auto':自动选择- 'full':精确 SVD- 'arpack':截断 SVD(适合小规模特征子集)- 'randomized':随机近似 SVD(高维快)- 'covariance_eigh':特征值分解协方差矩阵(样本≫特征时快)
tolfloat0.0SVD 收敛阈值(对迭代方法有效)
iterated_powerint / 'auto''auto'随机 SVD 的迭代次数(通常保持默认)
n_oversamplesint10随机 SVD 的过采样参数(svd_solver='randomized' 时)
power_iteration_normalizer'auto' / 'QR' / 'LU' / None'auto'随机 SVD 的幂迭代归一化方式
random_stateint / RandomState / NoneNone随机种子(svd_solver='randomized' 时保证结果可复现)

九、PCA Python 实战

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.decomposition import PCA
plt.rcParams['font.sans-serif'] = ['Microsoft YaHei']  # 使用微软雅黑字体
plt.rcParams['axes.unicode_minus'] = False  # 处理负号显示异常# 1. 加载数据
iris = load_iris()
X = iris.data
y = iris.target# 2. 创建 PCA 模型(降到 2 维)
pca = PCA(n_components=2)
X_pca = pca.fit_transform(X)# 3. 可视化
plt.figure(figsize=(8,6))
for target, color, label in zip([0,1,2], ['r','g','b'], iris.target_names):plt.scatter(X_pca[y == target, 0], X_pca[y == target, 1], c=color, label=label)plt.xlabel('主成分 1')
plt.ylabel('主成分 2')
plt.title('PCA 降维后的鸢尾花数据')
plt.legend()
plt.show()# 4. 方差贡献率
print("各主成分方差贡献率:", pca.explained_variance_ratio_)
# 输出结果:各主成分方差贡献率: [0.92461872 0.05306648]

输出示例:

各主成分方差贡献率: [0.92461872 0.05306648]

说明前两个主成分保留了约 97.7% 的信息。


十、PCA 可视化原理

PCA 本质上是在找一组新的坐标轴(主成分轴),数据被重新投影到这些轴上,从而实现降维。
在二维图中,这些主成分轴相当于旋转后的新坐标系。


十一、总结

  • PCA 是通过最大化方差来提取主要特征的线性降维方法。

  • 核心步骤是计算协方差矩阵求特征值和特征向量投影到主成分。

  • 适合在特征数量大、存在相关性、需要可视化的场景使用。

http://www.dtcms.com/a/547531.html

相关文章:

  • 广州企业网站找哪里苏州谢谢网络公司
  • 企业网站包含的要素楼市最新消息
  • 网站的容量运动服饰网站建设目的
  • 网站买源代码网站播放视频插件
  • 网站维护能自己做吗郑州 网站建设公司
  • 网站换域名seo移动应用开发是做什么的
  • 制作手机网站工具网站通栏广告素材
  • 广州市网站建设品牌设计装饰公司排名
  • 凡客诚品官方网站的代码标小智logo在线设计
  • 超实用网站电脑上重新下载一个wordpress
  • 鹤壁百度网站建设域名访问网站是什么意思
  • 网站的安全性建设郑州网站优化排名
  • 怎样做网站标题优化网络营销案例论文
  • 蚌埠市建设工程质监站网站济南旅游网站建设现状
  • 网站建设页面设计图片山西太原做企业网站建设的公司
  • 深度网网站建设方案做实体识别的网站
  • 麻城网站设计网页设置与制作
  • 做网站图片自动切换涿州网站建设有限公司
  • 东莞企业营销型网站深圳办公室租赁
  • 什邡移动网站建设汽车网站设计
  • 十大免费视频素材网站建设一家网站多少钱
  • 建设工程合同备案是在网站上吗网页设计与制作教程读书心得
  • 广州营销型网站建设团队门户网登录入口
  • 房产网站 设计方案服装购物网站策划书
  • 做网站能用本地的数据库嘛wordpress更换域名图片不显示
  • 自建网站营销当图网免费ppt下载
  • 榆次网站建设群推广
  • 自己建设一个网站需要多少钱厦门建站网址费用
  • 做网站卖东西流程logo商标设计
  • 买个网站域名要多少钱一年沈阳模板建站方案