线性模型与判别分析方法详解
在数据分析和机器学习领域,有许多经典的方法用于数据的分类、回归和降维。本文将详细介绍Fisher线性判别、典型变量分析以及线性参数模型等方法,探讨它们的原理、应用和实现。
1. Fisher线性判别与典型变量分析的问题
在某些情况下,Fisher目标函数的分母可能为零,导致目标函数无定义。具体来说,如果矩阵 $B$ 的第 $z$ 行和第 $z$ 列全为零,对于任何形式为 $w^T = (0, 0, \ldots, w_z, 0, 0, \ldots, 0)$ 的向量,都有 $w^TBw = 0$,这就使得Fisher目标函数的分母为零。
2. 典型变量分析
典型变量分析将Fisher方法推广到多类和多维投影的情况。对于任意点 $x$,其投影 $y$ 由 $y = W^Tx$ 给出,其中 $W$ 是一个 $D \times L$ 矩阵。假设来自类 $c$ 的数据 $x$ 服从高斯分布 $p(x) = N(x; m_c, S_c)$,则投影 $y$ 也服从高斯分布 $p(y) = N(y; W^Tm_c, W^TS_cW)$。
为了实现典型变量分析,我们需要定义两个重要的矩阵:
- 类间散布矩阵 $A$ :首先计算整个数据集的均值 $m$ 和每个类 $c$ 的均值 $m_c$,然后通过公式 $A \equiv \sum_{c=1}^{C} N_c (m_c - m) (m_c - m)^T$ 计算类间散布矩阵,其中 $N_c$ 是类 $c$ 中的数据点数量。
- 类内散布矩阵 $B$ :计算每个类 $c$ 的数据的协方
超级会员免费看
订阅专栏 解锁全文
3万+

被折叠的 条评论
为什么被折叠?



