Fisher线性分类器和贝叶斯决策

本文介绍了Fisher线性分类器的基本原理,通过将样本投影到一维线性空间进行分类。首先,讨论了如何求解最优投影方向,接着展示了Fisher分类器的代码实现。此外,还探讨了贝叶斯分类器,特别是使用Parzen窗进行非参数概率估计和贝叶斯决策的方法。最后,提到了决策过程中的最小错误率和最小风险策略,并给出了核心代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Fisher的原理

其实就是将所有的样本投影到一个一维的线性空间,然后做分类。

第一步是求解最优的投影方向。

原理推导可能复杂些,但是根据结果的代码实现还是很容易的。
完整的代码:
Fisher分类器和Logistic回归:http://download.youkuaiyun.com/detail/lisy14/9845734
贝叶斯分类器:http://download.youkuaiyun.com/download/lisy14/9845739

这部分是主代码1

%函数作用:根据训练样本求出投影方向
%参数说明:w1是第一类的样本自变量,w2是第二类的样本自变量
function wk=myfisher(w1,w2)  
[x1,y] = size(w1);  
[x2,~] = size(w2); 
u1=mean(w1);% wi类的样本均值 
u2=mean(w2);

% 总类内散布矩阵
s1 = zeros(y); 
s2 = zeros(y); 
for qt = 1:x1 
        s1 = s1 + (w1(qt,:) - u1)'*(w1(qt,:) - u1); 
end
for qt = 1:x2 
        s2 = s2 + (w2(qt,:) - u2)'*(w2(qt,:) - u2); 
end
sw = s1 + s2;
%投影向量的计算公式,计算最优方向的直线 
wk = inv(sw) * (u1-u2)';% 最优方向的特征向量 % 
wk = wk/sqrt(sum(wk.^2)); % 特征向量单位化  

如果有需要,这部分是样本的按照类别的划分代码

%将训练样本按照yTrain01分为两类w1,w2
a1=find(yTrain==0);
a2=find(yTrain);
w1=zeros(size(a1),10);
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值