LDA(线性判别回归)

LDA是一种有监督的降维算法,旨在保持类别间差异的同时降低数据维度。它假设不同类别的样本服从均值不同的高斯分布,并通过最大化类间距离与最小化类内距离来实现。LDA的目标函数是类间散度与类内散度的比值,通过求解特征值问题得到投影向量。在PCA不能有效降维或Sw逆矩阵不存在时,可以先用PCA预处理再进行LDA。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LDA线性判别回归

LDA降维的基本思想

  LDA和PCA一样都是降维算法,但不同的是LDA是有监督的降维算法,它的目的是将不同类别的数据降维后仍能较好的区别开。而PCA是无监督的算法,它的目的是将样本数据降维后仍保留样本数据间的方差。
  LDA认为不同类的样本服从均值不同的高斯分布,主要根据均值作为降维的导向,所以它在处理非高斯分布的数据,或者不同类别的高斯分布的均值相同时,分类效果不够好。LDA将原样本映射到一个超平面上,使同一个类别在这个超平面上尽可能集中,而不同类别在这个超平面上尽可能分开。

LDA计算

  设W为样本x映射到的超平面,设原数据x的维度为 d x d_x dx,要映射到的维度为 d c d_c dc,则 W ∈ A d x × d c W\in A^{d_x\times d_c} WAdx×dc x i x_i xi映射到W上的点为 x ^ i \widehat x_i x i,则 x ^ i = W T x i \widehat x_i=W^Tx_i x i=WTxi.
  上一节提到过,LDA认为不同类服从不同的高斯分布,则不同类的均值的距离越远越好,设投影前的类间距离为(下式中的C为数据集的类别数量,u为所有数据的均值点, N i N_i N

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值