机器学习-PCA

PCA(主成分分析)是通过特征值分解协方差矩阵来降低数据维度的方法,主要用于数据降维、可视化和特征提取。它能有效简化数据、减少噪声,但可能导致信息损失且不适用于非线性数据。
前言

PCA(Principal Component Analysis)是一种常用的数据降维方法,它的主要思想是将高维数据降维到一个低维空间,同时保留尽可能多的原始数据的信息。

定义

PCA (Principal Component Analysis) 是一种常用的数据降维算法,用于对高维数据进行降维和特征提取。它的主要思想是通过对数据的协方差矩阵进行特征值分解,选择前 k 个特征值最大的特征向量作为新的主成分,将原始数据投影到主成分空间,从而实现数据降维。

PCA 常用于数据降维、数据可视化、数据压缩等场景,其特点是可以有效的降低数据维度,保留数据的主要特征。

PCA步骤
  1. 中心化:将数据的每一个特征列减去该列的平均值,使得每一个特征的均值为 0。
  2. 协方差:计算样本的协方差矩阵,该矩阵表示各个特征之间的关系。
  3. 特征分析:对协方差矩阵进行特征分析,得到特征值和特征向量。特征向量表示了新的坐标轴的方向,特征值表示了新坐标轴的方差。
  4. 降维:选择特征值较大的特征向量,构造新的坐标系,将原始数据投影到新的坐标系上,从而达到降维的目的。

​ 这些步骤通过计算的过程可以得到一个主成分的矩阵,该矩阵的列表示了新的坐标轴,行表示了每一个样本在新坐标系上的坐标。

​ PCA 算法的一个重要优点是可以有效的降低数据的维度,降低数据的维数对于降低算法的复杂度和避免过拟合都有很重

PCA 优点
  1. 简化数据:PCA 可以有效的降低数据的维度,简化数据,便于后续数据分析。
  2. 减少噪声:PCA 可以把噪声数据降低到最小,提高数据的质量。
  3. 可视化:PCA 可以将高维数据映射到二维或三维空间,便于人眼观察和可视化。
  4. 去冗余:PCA 可以消除数据中的冗余信息,只保留主要信息。
PCA 缺点
  1. 信息损失:PCA 为了降低数据的维度,可能会导致一定的信息损失。
  2. 难以解释:PCA 降维后的数据维度和特征很难被人类直接理解和解释。
  3. 不适用于非线性数据:PCA 适用于线性数据,对于非线性数据,PCA 可能不能得到理想的结果。

所以在使用PCA时,要根据你的实际情况权衡利弊,结合其他算法一起使用

代码
import numpy as np

# 使用这段代码可以实现将原始数据降维至指定的维数,并返回降维后的数据

def PCA(X, k=None):
    """
    X: m x n 的数据矩阵,m 表示样本数量,n 表示每个样本的特征数
    k: 需要保留的主成分数量,如果不指定,则保留所有的主成分
    """
    # 对样本进行中心化
    X_mean = np.mean(X, axis=0)
    X = X - X_mean

    # 计算协方差矩阵
    cov_matrix = np.cov(X.T)

    # 计算协方差矩阵的特征值和特征向量
    eigenvalues, eigenvectors = np.linalg.eig(cov_matrix)

    # 对特征值进行排序,从大到小
    eigenvalues_sorted_index = np.argsort(eigenvalues)[::-1]
    eigenvalues = eigenvalues[eigenvalues_sorted_index]
    eigenvectors = eigenvectors[:, eigenvalues_sorted_index]

    # 根据 k 的值选择保留的主成分数量
    if k is not None:
        eigenvalues = eigenvalues[:k]
        eigenvectors = eigenvectors[:, :k]

    # 计算降维后的数据
    transformed_X = np.dot(X, eigenvectors)

    return transformed_X
### 关于机器学习 PCA 的相关歌曲或教学资源 尽管 PCA 是一种技术性很强的数学工具,在学术界和工业界有广泛应用,但它本身并不是音乐创作的主题。然而,有一些创作者会将复杂的科学概念转化为易于理解的艺术形式,例如歌曲、动画或其他多媒体资源。以下是关于 PCA 和其他相关内容的教学资源推荐: #### 教学视频资源 1. **StatQuest with Josh Starmer** 这是一个非常受欢迎的数据科学 YouTube 频道,其中有一期专门讲解 PCA 的工作原理及其应用场景[^3]。该频道以其清晰易懂的语言风格著称,适合初学者快速掌握核心概念。 2. **Andrew Ng 的 Coursera 课程** 在 Andrew Ng 提供的《Machine Learning》课程中,PCA 被作为降维章节的一部分进行了深入讨论[^4]。虽然这门课主要以理论为主,但其配套练习可以帮助学生更好地实践所学知识。 3. **Kaggle 学习平台上的微课程** Kaggle 提供了一系列免费在线教程,其中包括有关维度缩减的技术介绍[^5]。这些材料通常配有互动式编码环境 Jupyter Notebook,允许用户边看边练。 #### 图书资料建议 - *Pattern Recognition and Machine Learning* by Christopher M. Bishop 这本书详细介绍了概率论视角下的模式识别方法,并涵盖了多种经典的降维算法,包括标准版及改进型 PCA (如 Kernel PCA)[^6]。 - *Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow* by Aurélien Géron 此书中不仅讲述了如何实现基本版本的主成分分析法,还探讨了几何直觉背后的逻辑推理过程[^7]。 #### 可能存在的“趣味化”表达方式 目前尚未发现直接针对 PCA 主题谱写的正式出版物级别的乐曲作品;不过某些科普博主可能会尝试制作轻松愉快的小调旋律来辅助记忆复杂术语——这类产物往往存在于社交媒体分享链接里而非传统唱片公司发行列表之中! ```python import numpy as np from sklearn.decomposition import PCA # 创建随机矩阵用于演示目的 X = np.random.rand(100, 5) pca_model = PCA(n_components=2) reduced_X = pca_model.fit_transform(X) print(reduced_X.shape) # 输出应显示为 (100, 2),表示已降至二维空间 ``` 以上代码片段展示了利用 Python 中 scikit-learn 库执行简单 PCA 操作的方法[^8]。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值