降维算法 LDA & PCA

本文介绍了降维算法中的LDA(线性判别分析)和PCA(主成分分析)。LDA是一种有监督的降维方法,目标是最大化类间区分度,通过类间散布矩阵和类内散布矩阵的逆之积的特征向量来找到投影。PCA则是无监督降维方法,基于方差和协方差来选择正交的特征向量,通过协方差矩阵的特征值和特征向量进行处理实现降维。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题:

什么是降维算法

降维算法有哪些

各自是怎么实现降维的

 

降维算法,是为了使庞大的数据,多个特征,在之后能得到更好的处理效果,如分类,进行尽量保持原有信息的数据的压缩同时提高数据的处理效率。

降维算法中有两种,LDA 线性判别分析 和 PCA 主成分分析

LDA是针对有监督问题的,PCA是针对无监督问题的。

 

LDA,Linear Discrimination Analysis ,线性判别分析

在有监督的问题中,LDA希望能找到最有价值的那几个特征,把方向往该方向投影,

数据得到充分分开,便于之后的模型建立。

其目标:最大化类间区分度。(针对特定方向)

那么如何找到最合适的投影呢(能够最大化类间区分度的投影)

我们可以先来设想,什么样的投影是我们想找的

首先投影完之后我们希望数据的分布是清晰的,那么类间的距离应该是越大越好的

其次,同类别的数据尽量靠近。

而怎样才算是类间的距离呢?

看边界点?那有可能数据的情况是这样的:某些点处于边界,而绝大多数点是集中在一起的,那么这时候看边界点就不是那么合适了。因此我们选用类间的均值来比较。每个类的均值之差的累和越大越好。

(实际处理上的妙点:因为去遍历所有的类其实在庞大的数据中是耗费时间和资源的,那么我们可以选用各类均值和全句均值之差的累和来判别类间距离)

而同类的数据就是,投影后统计所有类别的在同一类别中的所有点和其均值之差的累和。

那么我

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值