机器学习之线性判别(算法详细推导)

线性判别法LDA——P60

主要思想

需要找一条直线,希望各点投影在该直线上后,希望同一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。量化这两点感官,则需满足异类点的中心距离远,同类点的方差小.

模型建立

假设我们有数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x m , y m ) } D=\{(x_1,y_1),(x_2,y_2),\dots,(x_m,y_m)\} D={ (x1,y1),(x2,y2),,(xm,ym)},其中任意样本 x i x_i xi为n为向量, y i ∈ { 0 , 1 } y_i\in\{0,1\} yi{ 0,1},我们定义

  • X i ( i = 0 , 1 ) X_i(i=0,1) Xi(i=0,1)为第 i i i类样本的集合,
  • # X i ( i = 0 , 1 ) \#X_i(i=0,1) #Xi(i=0,1)为第 i i i类样本的个数,
  • a i ( i = 0 , 1 ) a_i(i=0,1) ai(i=0,1)为第 i i i类样本的投影中心点(是一个向量),
  • μ i ( i = 0 , 1 ) \mu_i(i=0,1) μi(i=0,1)为第 i i i类样本的中心点
  • S i ( i = 0 , 1 ) S_i(i=0,1) Si(i=0,1)为第 i i i类样本的方差
  • Σ i ( i = 0 , 1 ) \Sigma_i(i=0,1) Σi(i=0,1)为第 i i i类样本的协方差矩阵

根据投影的知识可得

( x i 1 , x i 2 ) (x_{i1},x_{i2}) (xi1,xi2)在直线 w 1 x 1 + w 2 x 2 = 0 w_1x_1+w_2x_2=0 w1x1+w2x2=0上的投影相当于向量 ( x i 1 , x i 2 ) (x_{i1},x_{i2}) (xi1,xi2)在向量 ( w 1 , w 2 ) (w_1,w_2) (w1,w2)上的投影,即为向量 ( x i 1 , x i 2 ) (x_{i1},x_{i2}) (xi1,xi2)与向量 ( w 1 , w 2 ) (w_1,w_2) (w1,w2)的点积 ( x i ) T w (x_i)^Tw (xi)Tw

则有

a i = 1 # X i ∑ j ∈ X i ( x j ) T w          = ( 1 #

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值