【机器学习】PCA

本文介绍了PCA(主成分分析)作为一种无监督线性降维方法的基本原理。通过求解数据集的协方差矩阵来确定方差最大的方向,实现数据降维。文章强调了在进行PCA之前需要对数据进行标准化,并解释了为何选择方差最大的方向作为新的坐标轴。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

感谢

这两篇博客PCA机器学习实战之PCA对原理的介绍非常详细,我只在本篇中记录一些关键点。

笔记

  • PCA是一种无监督线性降维方法,通过求数据集的协方差矩阵最大的特征值对应的特征向量,由此找到数据方差最大的几个方向,对数据达到降维的效果。
  • PCA处理前需要进行数据标准化
  • 在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。
  • 转换坐标系时,以方差最大的方向作为坐标轴方向,因为数据的最大方差给出了数据的最重要的信息。第一个新坐标轴选择的是原始数据中方差最大的方法,第二个新坐标轴选择的是与第一个新坐标轴正交且方差次大的方向。重复该过程,重复次数为原始数据的特征维数。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值