林轩田机器学习基石——多类别分类问题(multi-class classification)

本文探讨了多类别分类问题,包括一对多(One-Versus-All)和一对一(One-Versus-One)两种常用方法。通过训练k个分类器,One-Versus-All利用逻辑回归等技术,而一对一方法则通过训练所有可能的类别对来避免样本不平衡问题。在决策时,分别应用不同的策略来确定样本所属类别。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


对于一个k类别分类问题,我们要做的是判断一个样本是k类别中的哪一类,实际上是二分类问题的拓展,解决方法也是二分类分类方法的延伸。
问题描述为:现有N个训练样本这里写图片描述,每个样本的输出是k类类标的一种,我们需要训练出一个能够判别出样本类标的训练器。

简单,常用的多分类方法可分为两种:一对多方法(One-Versus-All)和一对一方法(One-Versus-One)

One-Versus-All:(K分类)
①用逻辑回归或其他相应的分类方法训练k个分类器这里写图片描述,分类器Dk的训练过程为:把属于第k个类别的样本归为一类,把剩下k-1个类的样本归为另一类,以此作为二分类训练样本训练出一个二分类器;
②决策时,输入一个测试样本的x,分别代入k个分类器,取其中输出最大的那一类(即最大可能性)作为自己的类标。

样本不平衡问题:一对多方法在训练每个分类器时,其训练样本是1类对k-1类,正负样本的规模相差较大,如1个正样本和99个负样本,则在训练此分类器时很有可能最终的分类器是D(x)=-1,即不论输入什么都输出-1,这样他的错误率也很小只有0.01,达不到训练的效果。解决这个问题可以用一对一方法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值