LDA基本思想:
将高维的样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果。
对于两类问题,可以看做把样本都投影到一个方向上,然后在这个一维空间确定一个分类的阈值。过这个阈值点且与投影方向垂直的超平面就是两类的分类面。
投影方向的确定:投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。
比如如下右图就是更好的投影方向~
LDA基本步骤(二分类):
要找到一个投影w
把样本x投影到y上去(x是N*1维的,y是1*1维的,w是1*N维)

LDA是一种用于降维和分类的统计方法,旨在找到最佳投影方向,最大化类间距离并最小化类内距离。在二分类问题中,它寻找一个投影向量以创建一个最佳的分类面。LDA与PCA的主要区别在于LDA利用了分类信息,旨在增强类别间的可分离性,而PCA仅关注数据的整体表示。
最低0.47元/天 解锁文章
1118

被折叠的 条评论
为什么被折叠?



