降维(PCA 和LDA)

本文介绍了两种常见的降维方法——主成分分析(PCA)和线性判别分析(LDA),并详细阐述了它们的应用场景及Python实现代码。PCA用于最大化样本发散性,而LDA则专注于提高分类性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

####降维:
'''
当特征选择完成后,可以直接训练模型了,但是可能由于特征矩阵过大,
导致计算量大,训练时间长的问题,
因此降低特征矩阵维度也是必不可少的。
常见的降维方法除了以上提到的基于L1惩罚项的模型以外,
另外还有主成分分析法(PCA)和线性判别分析(LDA),
线性判别分析本身也是一个分类模型。
PCA和LDA有很多的相似点,其本质是要将原始的样本映射到维度更低的样本空间中,
但是PCA和LDA的映射目标不一样:PCA是为了让映射后的样本具有最大的发散性;
而LDA是为了让映射后的样本有最好的分类性能。
所以说PCA是一种无监督的降维方法,而LDA是一种有监督的降维方法。
 
'''
1.主成分分析法(PCA)
   使用decomposition库的PCA类选择特征的代码如下:
   from sklearn.decomposition import PCA
   #主成分分析法,返回降维后的数据
   #参数n_components为主成分数目
   PCA(n_components=2).fit_transform(iris.data)
    
    
2.线性判别分析法(LDA)
   使用lda库的LDA类选择特征的代码如下:
   from sklearn.lda import LDA
   #线性判别分析法,返回降维后的数据
   #参数n_components为降维后的维数
   LDA(n_components=2).fit_transform(iris.data, iris.target)
 
3.回顾:
库                 类            说明
decomposition        PCA            主成分分析法
lda                LDA            线性判别分析法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值