PCA 主成分分析理解(一)

本文深入探讨了主成分分析(PCA)在深度学习中的应用,通过解析PCA算法原理,介绍了如何将高维数据压缩到低维空间,同时保持数据的主要特征。文章详细解释了编码与解码函数的选择,以及如何通过特征分解求解最优解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  该系列博客都是对记录对学习花书(深度学习)的知识,仅供自己复习总结,截图的来源也为花书
  主成分分析(principal components analysis, PCA)是一个简单的机器学习算法,PCA算法假设在 Rn 空间中我们有 m 个点 {x(1), . . . , x(m)},我们希望对这些点进行有损压缩,但是损失的精度尽可能小,我们希望能找到一个编码函数,将n维的xi编码成l维,l<<n.根据输入返回编码,f(x) = c;我们也希望找到一 个解码函数,给定编码重构输入,x ≈ g(f(x))
  PCA由我们选择的编码函数而定,直接决定选择何种编码函数可能无从下手,但是解码的结果与x直接相关,可以利用x来判断解码的优劣
  利用矩阵乘法将编码映射回n维空间,即 g(c) = Dc,D是定义解码的矩阵。
  (1).首先我们需要明确如何根据每 一个输入 x 得到一个最优编码 c∗,一种方法是最小化原始向量x和重构向量g(c∗)之间的距离:
  ![在这里插入图片描述](https://img-blog.csdnimg.cn/20190818213519214.png)
  c代表编码函数的值,找到使距离最小的编码即最优编码
  我们可以用平方 L2 范数替代 L2 范数,因为两者在相同的值 c 上取得最小值。 这是因为 L2 范数是非负的,并且平方运算在非负值上是单调递增的。

在这里插入图片描述
可以简化成:
在这里插入图片描述
展开提取式子中与c有关的项,得:
在这里插入图片描述
代入g©=Dc得:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

通过对上式求解(具体过程参考花书)最后表达式为:
在这里插入图片描述
这个优化问题可以通过特征分解来求解。具体来讲,最优的 d 是 X⊤X 最大特 征值对应的特征向量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值