机器学习自学路径:线性判别分析

一.理论推导

1.1 背景介绍

线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的线性学习方法,在二分类问题上因为最早由Fisher提出,亦称“Fisher判别分析”。

基本思想是通过将给定数据集投影到一条直线上,使得同类样本的投影点尽可能接近,异类样本的投影点尽可能疏远。按此规则训练完模型后,将新的样本投影到该直线上,根据投影点的位置来确定新样本点的类别。图1-1是LDA模型的二维示意图,“+”和“-”分别代表正例和反例,虚线表示样本点到直线的投影,圆点表示两类投影的中心点。LDA的优化目标就是使投影后的类内距离小,类间距离大。

 图1-1 LDA的二维示意图

 1.2 理论介绍

给定数据集D = \{(x_i, y_i)\}_{i=1}^m, \quad y_i \in \{0, 1\},令Xi、μi、Σi分别表示第i∈{0,1}类示例的集合、均值向量、协方差矩阵。若将数据投影到直线w上,则两类样本的中心在直线上的投影分别为w^T \mu_0w^T \mu_1;若将所有样本点都投影到直线上,则两类样本的协方差分别为w^T \Sigma_0 ww^T \Sigma_1 w。由于直线是一维空间,因此w^T \mu_0w^T \mu_1w^T \Sigma_0 ww^T \Sigma_1 w均为实数。

欲使同类样例的投影点尽可能接近,可以让同类样例投影点的协方差尽可能小,即w^T \Sigma_0 w+w^T \Sigma_1 w

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值