机器学习实战-64:线性判别分析降维算法
深度学习原理与实践(开源图书)-总目录,建议收藏,告别碎片阅读!
机器学习分为监督学习、无监督学习和半监督学习(强化学习)。无监督学习最常应用的场景是聚类(clustering)和降维(dimension reduction)。聚类算法包括:K均值聚类(K-Means)、层次聚类(Hierarchical Clustering)和混合高斯模型(Gaussian Mixture Model)。降维算法包括:主成因分析(Principal Component Analysis)和线性判别分析(Linear Discriminant Analysis)。
线性判别分析(Linear Discriminant Analysis-LDA)是一种监督学习的降维技术, 即他要求训练数据是有标签信息的数据集。主成因分析(Principal Component Analysis-PCA)是一种无监督学习的降维技术。
线性判别分析(Linear Discriminant Analysis-LDA)的核心思想是:投影后类内方差最小,类间方差最大。LDA要将数据在低维度上进行投影,投影后希望每一种类别数## 1 算法原理
线性判别分析(Linear Discriminant Analysis-LDA)基本思想是假设各个类别的样本数据符合高斯分布,这样利用LDA进行投影后,可以利用极大似然估计计算各个类别投影数据的均值和方差,进而得到该类别高斯分布的概率密度函数。当一个新的样本到来后,我们可以将它投影,然后将投影后的样本特征分别带入各个类别的高斯分布概率密度函数,计算它属于这个类别的概率,最大的概率对应的类别即为预测类别。
线性判别分析(Linear Discriminant Analysis-LDA)降维算法的核心步骤如下:
- 计算类内散度矩阵: S w S_w Sw;
- 计算类间散度矩阵: S b S_b Sb

最低0.47元/天 解锁文章
9374

被折叠的 条评论
为什么被折叠?



