机器学习(一)线性模型————理论篇 线性回归模型、对数几率模型、线性判别分析模型、多分类学习模型

线性模型基本介绍

线性模型(linear model)是通过学习一个属性的线性组合来进行预测的函数。线性模型形式简单,可解释性高,蕴含着机器学习中的重要思想,所以将线性模型列为机器学习的第一个模型。

线性模型的基本形式为:
f ( x ) = w T x + b f(\boldsymbol{x})=\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b f(x)=wTx+b
其中, w = ( w 1 ; w 2 ; … ; w d ) \boldsymbol{w}=\left(w_1 ; w_2 ; \ldots ; w_d\right) w=(w1;w2;;wd) ,反映了各个属性在预测中的重要性,当 $\boldsymbol{w} $和 b b b 确定后, 模型随之确定。

介绍的基本内容有:

  1. 基本线性回归模型
  2. 对数几率回归模型
  3. 线性判别分析模型
  4. 多分类学习模型

基本线性回归模型

给定数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } D=\left\{\left(\boldsymbol{x}_1, y_1\right),\left(\boldsymbol{x}_2, y_2\right), \ldots,\left(\boldsymbol{x}_m, y_m\right)\right\} D={(x1,y1),(x2,y2),,(xm,ym)}, 其中 x i = ( x i 1 \boldsymbol{x}_i=\left(x_{i 1}\right. xi=(xi1; x i 2 ; … ; x i d x_{i 2} ; \ldots ; x_{i d} xi2;;xid ), y i ∈ R y_i \in \mathbb{R} yiR. “线性回归” (linear regression)试图学得一个线性模型以尽可能准确地预测实值输出标记.

回归模型的主要步骤为:建立含参线性模型、构造性能度量、参数估计、参数值代入含参线性模型获取预测输出结果.

单元线性回归

为了方便理解模型数学公式表达,先从单属性入手,输入属性的数目只有一个。

  • 建立含参线性模型

单元线性回归试图学得
f ( x i ) = w x i + b , 使得  f ( x i ) ≃ y i .  f\left(x_i\right)=w x_i+b \text {, 使得 } f\left(x_i\right) \simeq y_i \text {. } f(xi)=wxi+b使得 f(xi)yi

  • 构造性能度量

性能度量用于衡量 f ( X ) f(X) f(X) y y y 之间的差别。这里建立均方误差为性能度量:
( w ∗ , b ∗ ) = arg ⁡ min ⁡ ( w , b ) ∑ i = 1 m ( f ( x i ) − y i ) 2 = arg ⁡ min ⁡ ( w , b ) ∑ i = 1 m ( y i − w x i − b ) 2 . \begin{aligned} \left(w^*, b^*\right) & =\underset{(w, b)}{\arg \min } \sum_{i=1}^m\left(f\left(x_i\right)-y_i\right)^2 \\ & =\underset{(w, b)}{\arg \min } \sum_{i=1}^m\left(y_i-w x_i-b\right)^2 . \end{aligned} (w,b)=(w,b)argmini=1m(f(xi)yi)2=(w,b)argmini=1m(yiwxib)2.

均方误差有非常好的几何意义,它对应了常用的欧几里得距离或简称“欧
氏距离”(Euclidean distance).基于均方误差最小化来进行模型求解的方法称
为“最小二乘法”(least square method).在线性回归中,最小二乘法就是试图
找到一条直线,使所有样本到直线上的欧氏距离之和最小.

  • 参数估计

求解 w w w b b b 使 E ( w , b ) = ∑ i = 1 m ( y i − w x i − b ) 2 E_{(w, b)}=\sum_{i=1}^m\left(y_i-w x_i-b\right)^2 E(w,b)=i=1m(yiwxib)2 最小化的过程, 称为线性回归 模型的最小二乘 “参数估计” (parameter estimation). 我们可将 E ( w , b ) E_{(w, b)} E(w,b) 分别对 w w w b b b 求导,并令导函数为零。 可得到 w w w b b b 最优解的闭式解:
w = ∑ i = 1 m y i ( x i − x ˉ ) ∑ i = 1 m x i 2 − 1 m ( ∑ i = 1 m x i ) 2 b = 1 m ∑ i = 1 m ( y i − w x i ) w=\frac{\sum_{i=1}^m y_i\left(x_i-\bar{x}\right)}{\sum_{i=1}^m x_i^2-\frac{1}{m}\left(\sum_{i=1}^m x_i\right)^2}\\ b=\frac{1}{m} \sum_{i=1}^m\left(y_i-w x_i\right) w=i=1mxi2m1(i=1mxi)2i=1myi(xixˉ)b=m1i=1m(yiwxi)

多元线性回归

  • 建立含参线性模型

与单元线性回归不同的是,多元线性回归需要将 w w w x i x_i xi 向量化,如本节开头所示数据集 D D D ,样本有 d d d 个属性描述,此时,我们试图学得:
f ( x i ) = w T x i + b ,  使得  f ( x i ) ≃ y i ,  f\left(\boldsymbol{x}_i\right)=\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}_i+b, \text { 使得 } f\left(\boldsymbol{x}_i\right) \simeq y_i \text {, } f(xi)=wTxi+b, 使得 f(xi)yi
这称为“多元线性回归”(multivariate linear regression).

  • 构造性能度量

    这里建立均方误差为性能度量:
    w ^ ∗ = arg ⁡ min ⁡ w ^ ( y − X w ^ ) T ( y − X w ^ ) \hat{\boldsymbol{w}}^*=\underset{\hat{\boldsymbol{w}}}{\arg \min }(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})^{\mathrm{T}}(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}}) w^=w^argmin(yXw^)T(yXw^)

(1)为了便于讨论,这里将 w \boldsymbol{w} w b b b 吸收合为一个向量 w ^ = ( w ; b ) \hat{\boldsymbol{w}} = (\boldsymbol{w};b) w^=(w;b) .相应的,把数据集表示为一个矩阵 X X X ,其中每行对应一个样本,前 d d d 列对应于每个样本的 d d d 个属性值,最后一列元素恒为 1,即
X = ( x 11 x 12 … x 1 d 1 x 21 x 22 … x 2 d 1 ⋮ ⋮ ⋱ ⋮ ⋮ x m 1 x m 2 … x m d 1 ) = ( x 1 T 1 x 2 T 1 ⋮ ⋮ x m T 1 ) \mathbf{X}=\left(\begin{array}{ccccc} x_{11} & x_{12} & \ldots & x_{1 d} & 1 \\ x_{21} & x_{22} & \ldots & x_{2 d} & 1 \\ \vdots & \vdots & \ddots & \vdots & \vdots \\ x_{m 1} & x_{m 2} & \ldots & x_{m d} & 1 \end{array}\right)=\left(\begin{array}{cc} \boldsymbol{x}_1^{\mathrm{T}} & 1 \\ \boldsymbol{x}_2^{\mathrm{T}} & 1 \\ \vdots & \vdots \\ \boldsymbol{x}_m^{\mathrm{T}} & 1 \end{array}\right) X= x11x21xm1x12x22xm2x1dx2dxmd111 = x1Tx2TxmT111
(2)构造性能度量上式的推导
w ^ ∗ = arg ⁡ min ⁡ w ^ ∑ i = 1 m ( y i − x ^ i T w ^ ) 2 \begin{aligned} \hat{\boldsymbol{w}}^* & =\underset{\hat{\boldsymbol{w}}}{\arg \min } \sum_{i=1}^m\left(y_i-\hat{\boldsymbol{x}}_i^{\mathrm{T}} \hat{\boldsymbol{w}}\right)^2 \end{aligned} w^=w^argmini=1m(yix^iTw^)2
根据向量内积的定义可知, 上式可以写成如下向量内积的形式
w ^ ∗ = arg ⁡ min ⁡ w ^ [ y 1 − x ^ 1 T w ^ ⋯ y m − x ^ m T w ^ ] [ y 1 − x ^ 1 T w ^ ⋮ y m − x ^ m T w ^ ] \hat{\boldsymbol{w}}^*=\underset{\hat{\boldsymbol{w}}}{\arg \min }\left[\begin{array}{lll} y_1-\hat{\boldsymbol{x}}_1^{\mathrm{T}} \hat{\boldsymbol{w}} & \cdots & y_m-\hat{\boldsymbol{x}}_m^{\mathrm{T}} \hat{\boldsymbol{w}} \end{array}\right]\left[\begin{array}{c} y_1-\hat{\boldsymbol{x}}_1^{\mathrm{T}} \hat{\boldsymbol{w}} \\ \vdots \\ y_m-\hat{\boldsymbol{x}}_m^{\mathrm{T}} \hat{\boldsymbol{w}} \end{array}\right] w^=w^argmin[y1x^1Tw^ymx^mTw^] y1x^1Tw^ymx^mTw^
所以
w ^ ∗ = arg ⁡ min ⁡ w ^ ( y − X w ^ ) T ( y − X w ^ ) \hat{\boldsymbol{w}}^*=\underset{\hat{\boldsymbol{w}}}{\arg \min }(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}})^{\mathrm{T}}(\boldsymbol{y}-\mathbf{X} \hat{\boldsymbol{w}}) w^=w^argmin(yXw^)T(yXw^)

  • 参数估计

将上式对 w ^ \boldsymbol{\hat{w}} w^ 求导,令导函数为零,即可得到 w ^ \boldsymbol{\hat{w}} w^ 最优解的闭式解。
w ^ ∗ = ( X T X ) − 1 X T y \hat{\boldsymbol{w}}^*=\left(\mathbf{X}^{\mathrm{T}} \mathbf{X}\right)^{-1} \mathbf{X}^{\mathrm{T}} \boldsymbol{y} w^=(XTX)1XTy

注意:这里涉及矩阵求导,详情见矩阵微分公式

注意:上式解只存在与当 X T X \mathbf{X}^{\mathrm{T}} \mathbf{X} XTX 为满秩矩阵(full-rank matrix) 或正定矩阵 (positive definite matrix)时。其他情况需要选择哪一个解作为输出,这将由学习算法的归纳偏好决定

对数几率回归

广义线性模型介绍

在上文中,我们希望我们构造的线性模型的预测值逼近真实标记 y y y ,但为了分类的准确性,我们想让线性预测值处于一定的范围,可以选择构造线性模型,使其预测值逼近 y y y 的衍生物 g ( y ) g(y) g(y) ,例如:
ln ⁡ y = w T x + b . \ln y=\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b . lny=wTx+b.
这就是 “对数线性回归” (log-linear regression), 它实际上是在试图让 e w T x + b e^{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b} ewTx+b 逼近 y y y. 该式在形式上仍是线性回归, 但实质上已是在求取输入空间到输出空间的非线性函数映射, 如下图所示. 这里的对数函数起到了将线性回归模型的预测值与真实标记联系起来的作用.

image-20230308204040843

更一般的,考虑单调可微函数 g ( ⋅ ) g(\cdot) g() ,令
g ( y ) = w T x + b g(y) = \boldsymbol{w^Tx}+b g(y)=wTx+b
这样得到的模型称为 “广义线性模型” (generalized linear model), 其中函数 g ( ⋅ ) g(\cdot) g() 称为 “联系函数” (link function). 显然, 对数线性回归是广义线性模型在 g ( ⋅ ) = ln ⁡ ( ⋅ ) g(\cdot)=\ln (\cdot) g()=ln() 时的特例.

对数几率回归模型

上文提到,我们想让输出结果落在一定的范围内,以使得其输出结果更好的反映分类结果大小,为了这个目的,我们找到了一个连续单调可微函数 “对数几率函数(logistic function)”
g − 1 ( z ) = 1 1 + e − z g^{-1}(z)=\frac{1}{1+e^{-z}} g1(z)=1+ez1
image-20230308204738502

对数几率函数是一种 “sigmoid” 函数,它能将输出值转化为一个接近 0 或 1 的 y y y 值,将对数几率函数作为联系函数,构造对数几率回归模型:

  • 建立含参线性模型

y = 1 1 + e w T x + b ln ⁡ y 1 − y = w T x + b y=\frac{1}{1+e^{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b}} \\ \ln \frac{y}{1-y}=\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b y=1+ewTx+b1ln1yy=wTx+b

若将 y y y 视为样本 x \boldsymbol{x} x 作为正例的可能性, 则 1 − y 1-y 1y 是其反例可能性, 两者的比值 y 1 − y \cfrac{y}{1-y} 1yy 称为 “几率” (odds), 反映了 x \boldsymbol{x} x 作为正例的相对可能性. 对几率取对数则得到 “对数几率” (log odds, 亦称 logit)
ln ⁡ y 1 − y \ln \frac{y}{1-y} ln1yy

  • 构造性能度量

于是, 我们可通过 “极大似然法” (maximum likelihood method)来估计 w \boldsymbol{w} w b b b. 给定数据集 { ( x i , y i ) } i = 1 m \left\{\left(\boldsymbol{x}_i, y_i\right)\right\}_{i=1}^m {(xi,yi)}i=1m, 对率回归模型最大化 “对数似然” (log-likelihood)
ℓ ( w , b ) = ∑ i = 1 m ln ⁡ p ( y i ∣ x i ; w , b ) \ell(\boldsymbol{w}, b)=\sum_{i=1}^m \ln p\left(y_i \mid \boldsymbol{x}_i ; \boldsymbol{w}, b\right) (w,b)=i=1mlnp(yixi;w,b)
即令每个样本属于其真实标记的概率越大越好. 为便于讨论, 令 β = ( w ; b ) \boldsymbol{\beta}=(\boldsymbol{w} ; b) β=(w;b), x ^ = ( x ; 1 ) \hat{\boldsymbol{x}}=(\boldsymbol{x} ; 1) x^=(x;1), 则 w T x + b \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b wTx+b 可简写为 β T x ^ \boldsymbol{\beta}^{\mathrm{T}} \hat{\boldsymbol{x}} βTx^.

其中,由所建立的含参线性模型,我们知道:
ln ⁡ p ( y = 1 ∣ x ) p ( y = 0 ∣ x ) = w T x + b . \ln \frac{p(y=1 \mid \boldsymbol{x})}{p(y=0 \mid \boldsymbol{x})}=\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b . lnp(y=0x)p(y=1x)=wTx+b.
显然有
p ( y = 1 ∣ x ) = e w T x + b 1 + e w T x + b , p ( y = 0 ∣ x ) = 1 1 + e w T x + b , \begin{aligned} & p(y=1 \mid \boldsymbol{x})=\frac{e^{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b}}{1+e^{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b}}, \\ & p(y=0 \mid \boldsymbol{x})=\frac{1}{1+e^{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}+b}}, \end{aligned} p(y=1x)=1+ewTx+bewTx+b,p(y=0x)=1+ewTx+b1,

代入上述模型,得到最后的性能度量函数:
ℓ ( β ) = ∑ i = 1 m ( − y i β T x ^ i + ln ⁡ ( 1 + e β T x ^ i ) ) . \ell(\boldsymbol{\beta})=\sum_{i=1}^m\left(-y_i \boldsymbol{\beta}^{\mathrm{T}} \hat{\boldsymbol{x}}_i+\ln \left(1+e^{\boldsymbol{\beta}^{\mathrm{T}} \hat{\boldsymbol{x}}_i}\right)\right) . (β)=i=1m(yiβTx^i+ln(1+eβTx^i)).

最大似然法简单介绍:快速理解极大似然法

这里省略了部分步骤,详情请见南瓜书。

  • 参数估计

与上述模型不同的是,对数几率模型无法获取闭式解,只能通过牛顿法或梯度下降法求解数值最优解。于是得到:

β ∗ = arg ⁡ min ⁡ β ℓ ( β ) . \boldsymbol{\beta}^*=\underset{\boldsymbol{\beta}}{\arg \min } \ell(\boldsymbol{\beta}) . β=βargmin(β).

常见的几种最优化方法(梯度下降法、牛顿法、拟牛顿法、共轭梯度法等)

线性判别分析

线性判别分析(Linear Discriminant Analysis, 简称 LDA) 是一种经典的线性学习方法, 在二分类问题上因为最早由Fisher提出, 亦称 “Fisher 判别分析”.

LDA 的思想为: 给定训练样例集, 设法将样例投影到一条直线上, 使得同类样例的投影点尽可能接近、不同类样例的投影点尽可能远离; 在对新样本进行分类时, 将其投影到同样的这条直线上, 再根据投影点的位置来确定新样本的类别. 如下图所示:

image-20230308211639976

建立模型

给定数据集 { ( x i , y i ) } i = 1 m \left\{\left(\boldsymbol{x}_i, y_i\right)\right\}_{i=1}^m {(xi,yi)}i=1m

  • i i i 类示例的集合 X i X_i Xi

  • i i i 类示例的均值向量 μ i \boldsymbol{\mu}_i μi

  • i i i 类示例的协方差矩阵 Σ i \boldsymbol{\Sigma}_i Σi

  • 两类样本的中心在直线上的投影: w T μ 0 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_0 wTμ0 w T μ 1 \boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_1 wTμ1

  • 两类样本的协方差: w T Σ 0 w \boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_0 \boldsymbol{w} wTΣ0w w T Σ 1 w \boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_1 \boldsymbol{w} wTΣ1w

同类样例的投影点尽可能接近 → w T Σ 0 w + w T Σ 1 w \rightarrow \boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_0 \boldsymbol{w}+\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_1 \boldsymbol{w} wTΣ0w+wTΣ1w 尽可能小

异类样例的投影点尽可能远离 → ∥ w T μ 0 − w T μ 1 ∥ 2 2 \rightarrow\left\|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_0-\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_1\right\|_2^2 wTμ0wTμ1 22 尽可能大

构造性能度量

于是, 性能度量可以表示为
J = ∥ w T μ 0 − w T μ 1 ∥ 2 2 w T Σ 0 w + w T Σ 1 w = w T ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T w w T ( Σ 0 + Σ 1 ) w J=\frac{\left\|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_0-\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_1\right\|_2^2}{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_0 \boldsymbol{w}+\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_1 \boldsymbol{w}}=\frac{\boldsymbol{w}^{\mathrm{T}}\left(\boldsymbol{\mu}_0-\boldsymbol{\mu}_1\right)\left(\boldsymbol{\mu}_0-\boldsymbol{\mu}_1\right)^{\mathrm{T}} \boldsymbol{w}}{\boldsymbol{w}^{\mathrm{T}}\left(\boldsymbol{\Sigma}_0+\boldsymbol{\Sigma}_1\right) \boldsymbol{w}} J=wTΣ0w+wTΣ1w wTμ0wTμ1 22=wT(Σ0+Σ1)wwT(μ0μ1)(μ0μ1)Tw

参数估计

补充 广义瑞利商

首先要求解最优化的性能度量来估计参数,需要补充一个知识点:“广义瑞利商”(generalized Rayleigh quotient)

我们首先来看看瑞利商的定义。瑞利商是指这样的函数 R ( A , x ) R(A, x) R(A,x) :
R ( A , x ) = x H A x x H x R(A, x)=\frac{x^H A x}{x^H x} R(A,x)=xHxxHAx
其中 x x x 为非零向量,而 A A A n × n n \times n n×n 的Hermitan矩阵。所谓的Hermitan矩阵就是满足共轭转置矩阵和自己相等的矩阵,即 A H = A A^H=A AH=A 。如果我们的矩阵 A \mathrm{A} A 是实矩阵,则满足 A T = A A^T=A AT=A 的矩阵即为Hermitan 阵。

瑞利商 R ( A , x ) R(A, x) R(A,x) 有一个非常重要的性质,即它的最大值等于矩阵 A A A 最大的特征值,而最小值等于矩 阵 A A A 的最小的特征值,也就是满足
λ min ⁡ ≤ x H A x x H x ≤ λ max ⁡ \lambda_{\min } \leq \frac{x^H A x}{x^H x} \leq \lambda_{\max } λminxHxxHAxλmax
具体的证明这里就不给出了。当向量 x x x 是标准正交基时,即满足 x H x = 1 x^H x=1 xHx=1 时,瑞利商退化为: R ( A , x ) = x H A x R(A, x)=x^H A x R(A,x)=xHAx ,这个形式在谱聚类和PCA中都有出现。

以上就是瑞利商的内容,现在我们再看看广义瑞利商。广义瑞利商是指这样的函数 R ( A , B , x ) R(A, B, x) R(A,B,x) :
R ( A , x ) = x H A x x H B x R(A, x)=\frac{x^H A x}{x^H B x} R(A,x)=xHBxxHAx
此时我们的 R ( A , B , x ) R(A, B, x) R(A,B,x) 转化为 R ( A , B , x ′ ) R\left(A, B, x^{\prime}\right) R(A,B,x) :
R ( A , B , x ′ ) = x ′ H B − 1 / 2 A B − 1 / 2 x ′ x ′ H x ′ R\left(A, B, x^{\prime}\right)=\frac{x^{\prime H} B^{-1 / 2} A B^{-1 / 2} x^{\prime}}{x^{\prime H} x^{\prime}} R(A,B,x)=xHxxHB1/2AB1/2x
利用前面的瑞利商的性质,我们可以很快的知道, R ( A , B , x ′ ) R\left(A, B, x^{\prime}\right) R(A,B,x) 的最大值为矩阵 B − 1 / 2 A B − 1 / 2 B^{-1 / 2} A B^{-1 / 2} B1/2AB1/2 的 最大特征值,或者说矩阵 B − 1 A B^{-1} A B1A 的最大特征值,而最小值为矩阵 B − 1 A B^{-1} A B1A 的最小特征值。

详见 瑞利熵和广义瑞利熵

参数估计的求解

我们看性能度量的表达式:
J = ∥ w T μ 0 − w T μ 1 ∥ 2 2 w T Σ 0 w + w T Σ 1 w = w T ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T w w T ( Σ 0 + Σ 1 ) w J=\frac{\left\|\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_0-\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\mu}_1\right\|_2^2}{\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_0 \boldsymbol{w}+\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\Sigma}_1 \boldsymbol{w}}=\frac{\boldsymbol{w}^{\mathrm{T}}\left(\boldsymbol{\mu}_0-\boldsymbol{\mu}_1\right)\left(\boldsymbol{\mu}_0-\boldsymbol{\mu}_1\right)^{\mathrm{T}} \boldsymbol{w}}{\boldsymbol{w}^{\mathrm{T}}\left(\boldsymbol{\Sigma}_0+\boldsymbol{\Sigma}_1\right) \boldsymbol{w}} J=wTΣ0w+wTΣ1w wTμ0wTμ1 22=wT(Σ0+Σ1)wwT(μ0μ1)(μ0μ1)Tw
为了配凑广义瑞利商的形式,我们有如下的定义:

定义 “类内散度矩阵” (within-class scatter matrix)
S w = Σ 0 + Σ 1 = ∑ x ∈ X 0 ( x − μ 0 ) ( x − μ 0 ) T + ∑ x ∈ X 1 ( x − μ 1 ) ( x − μ 1 ) T \begin{aligned} \mathbf{S}_w & =\boldsymbol{\Sigma}_0+\boldsymbol{\Sigma}_1 \\ & =\sum_{\boldsymbol{x} \in X_0}\left(\boldsymbol{x}-\boldsymbol{\mu}_0\right)\left(\boldsymbol{x}-\boldsymbol{\mu}_0\right)^{\mathrm{T}}+\sum_{\boldsymbol{x} \in X_1}\left(\boldsymbol{x}-\boldsymbol{\mu}_1\right)\left(\boldsymbol{x}-\boldsymbol{\mu}_1\right)^{\mathrm{T}} \end{aligned} Sw=Σ0+Σ1=xX0(xμ0)(xμ0)T+xX1(xμ1)(xμ1)T
以及 “类间散度矩阵” (between-class scatter matrix)
S b = ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T , \mathbf{S}_b=\left(\boldsymbol{\mu}_0-\boldsymbol{\mu}_1\right)\left(\boldsymbol{\mu}_0-\boldsymbol{\mu}_1\right)^{\mathrm{T}}, Sb=(μ0μ1)(μ0μ1)T,
则性能度量可重写为
J = w T S b w w T S w w J=\frac{\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_b \boldsymbol{w}}{\boldsymbol{w}^{\mathrm{T}} \mathbf{S}_w \boldsymbol{w}} J=wTSwwwTSbw
这就是 LDA 欲最大化的目标,即 S b \boldsymbol{S_b} Sb S w \boldsymbol{S_w} Sw 的广义瑞利商

S b w = λ S w w \mathbf{S}_b \boldsymbol{w}=\lambda \mathbf{S}_w \boldsymbol{w} Sbw=λSww
可以解得估计的参数为:
w = S w − 1 ( μ 0 − μ 1 ) \boldsymbol{w}=\mathbf{S}_w^{-1}\left(\boldsymbol{\mu}_0-\boldsymbol{\mu}_1\right) w=Sw1(μ0μ1)

多分类学习问题

多分类学习问题,通常由多个二分类问题构成,将多分类问题拆解为二分类问题,有三种拆分策略:

  • 一对一 (OvO)
  • 一对其余 (OvR)
  • 多对多 (MvM)
image-20230309095713616

容易看出, OvR 只需训练 N N N 个分类器, 而 OvO 需训练 N ( N − 1 ) / 2 N(N-1) / 2 N(N1)/2 个分 类器, 因此, OvO的存储开销和测试时间开销通常比 OvR 更大. 但在训练时, OvR 的每个分类器均使用全部训练样例, 而 O v O \mathrm{OvO} OvO 的每个分类器仅用到两个类 的样例, 因此, 在类别很多时, O v O \mathrm{OvO} OvO 的训练时间开销通常比 OvR 更小. 至于预 测性能, 则取决于具体的数据分布, 在多数情形下两者差不多.

M v M \mathrm{MvM} MvM 是每次将若干个类作为正类, 若干个其他类作为反类. 显然, O v O \mathrm{OvO} OvO 和 OvR 是 MvM 的特例. MvM 的正、反类构造必须有特殊的设计, 不能随意选取. 这里我们介绍一种最常用的 MvM 技术: “纠错输出码” (Error Correcting Output Codes, 简称 ECOC).

ECOC 是将编码的思想引入类别拆分, 并尽 可能在解码过程中具有容错性. ECOC 工作过程主要分为两步:

  • 编码: 对 N N N 个类别做 M M M 次划分, 每次划分将一部分类别划为正类, 一部 分划为反类, 从而形成一个二分类训练集; 这样一共产生 M M M 个训练集, 可 训练出 M M M 个分类器.
  • 解码: M M M 个分类器分别对测试样本进行预测, 这些预测标记组成一个编 码. 将这个预测编码与每个类别各自的编码进行比较, 返回其中距离最小 的类别作为最终预测结果.

image-20230309100049454

类别划分通过 “编码矩阵” (coding matrix)指定. 编码矩阵有多种形式, 常见的主要有二元码 和三元码. 前者将每个类别分别指定为正类和反类, 后者在正、反类之外, 还可指定 “停用类” . 图(a) 给出了一个示意图, 分类器 f 2 f_2 f2 C 1 C_1 C1 类和 C 3 C_3 C3 类的样例作为正例, C 2 C_2 C2 类和 C 4 C_4 C4 类的样例作为反例; 在图 (b) 中, 分类器 f 4 f_4 f4 C 1 C_1 C1 类和 C 4 C_4 C4 类的样例作为正例, C 3 C_3 C3 类的样例作为反例. 在解码阶段, 各分 类器的预测结果联合起来形成了测试示例的编码, 该编码与各类所对应的编码 进行比较, 将距离最小的编码所对应的类别作为预测结果. 例如在图 (a) 中, 若基于欧氏距离, 预测结果将是 C 3 C_3 C3.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值