线性判别分析与树基方法在分类问题中的应用
1. 线性判别分析(LDA)
线性判别分析(LDA)的目标是将数据集投影到一个具有良好类可分性的低维空间,以避免过拟合,通过最小化参数估计误差和降低给定分类任务的计算成本。在LDA中,我们假设对于每个类别 $k$,$X$ 的密度遵循高斯分布,其多元高斯分布的概率密度公式为:
[
f_k(x) = \frac{1}{(2\pi)^{p/2}|\Sigma_k|^{1/2}} e^{-\frac{1}{2} (x - \mu_k)^T\Sigma_k^{-1}(x - \mu_k)}
]
其中,$p$ 是维度,$\Sigma_k$ 是协方差矩阵。对于LDA方法,我们假设不同的 $k$ 对应的协方差矩阵是相同的,即 $\Sigma_k = \Sigma, \forall k$。这样假设后,分类器变为线性的。LDA与二次判别分析(QDA)的主要区别在于,LDA假设不同类别的协方差矩阵相同,因此不同类别的高斯密度具有相同的形状,但均值向量不同。
1.1 最优分类与高斯分布估计
基于贝叶斯规则进行最优分类。贝叶斯规则假设在给定特征向量 $X$ 的情况下,一个类别具有最大的后验概率。由于对数函数是增函数,最大化后验概率等价于最大化对数后验概率。经过一系列推导,最终的分类器为:
[
\hat{Y}(x) = \arg \max_k \left[ x^T\Sigma^{-1}\mu_k - \frac{1}{2}\mu_k^T\Sigma^{-1}\mu_k + \log(\pi_k) \right]
]
其中,$\pi_k$ 是类别 $k$ 的先验概率。我们可以定义线性判
超级会员免费看
订阅专栏 解锁全文
45

被折叠的 条评论
为什么被折叠?



