机器学习基石 之 多分类(Multi-Classification)

本文深入探讨了多分类问题中的两种核心策略:One-Versus-All(OVA)和One-Versus-One(OVO)分解方法。OVA通过将每个类别与其他所有类别进行对比,创建多个二分类模型;而OVO则通过比较每对类别,建立更大量的二分类器。文章详细解析了两种方法的实现过程,以及各自的优缺点。

多分类(Multi-Classification)

One-Versus-All (OVA) Decomposition

以逻辑回归为例,其思路是将其中一类和剩下的类分开,做二分类,并对全部类做次操作,这样便有了K个逻辑回归分类器,只要取其中概率最大hypothesis所对应的分类作为分类结果即可。

  • for k∈Yk \in \mathcal { Y }kY , obtain w[k]\mathbf{w}_{[k]}w[k] by running logistic regression on
    D[k]={(xn,yn′=2[[yn=k]]−1)}n=1N \mathcal { D } _ { [ k ] } = \left\{ \left( \mathbf { x } _ { n } , y _ { n } ^ { \prime } = 2 \left[\kern-0.15em\left[ y _ { n } = k \right]\kern-0.15em\right] - 1 \right) \right\} _ { n = 1 } ^ { N } D[k]={(xn,yn=2[[yn=k]]1)}n=1N

  • return g(x)=argmax⁡k∈Y(w[k]Tx)g ( \mathbf { x } ) = \operatorname { argmax } _ { k \in \mathcal { Y } } \left( \mathbf { w } _ { [ k ] } ^ { T } \mathbf { x } \right)g(x)=argmaxkY(w[k]Tx)

其优缺点是:

  • pros: efficient ,can be coupled with any logistic regression-like approaches
    效率高,可以和类似逻辑回归的算法(输出概率的算法)结合
  • cons: often unbalanced D[k] when K large
    如果K太大会导致数据不平衡

One-Versus-One (OVO) Decomposition

其基本思路是将其中一类和剩下的类中的一类做二分类,然对全部分类器执行该操作(组合数就是分类器数),那么

  • for (k,ℓ)∈Y×Y( k , \ell ) \in \mathcal { Y } \times \mathcal { Y }(k,)Y×Y , obtain w[k,l]\mathbf { w }_ { [ k , l ] }w[k,l] by running logistic regression on

D[k,ℓ]={(xn,yn′=2[[yn=k]]−1):yn=k or yn=ℓ} \mathcal { D } _ { [ k , \ell ] } = \left\{ \left( \mathbf { x } _ { n } , y _ { n } ^ { \prime } = 2 \left[\kern-0.15em\left[ y _ { n } = k \right]\kern-0.15em\right] - 1 \right) : y _ { n } = k \text { or } y _ { n } = \ell \right\} D[k,]={(xn,yn=2[[yn=k]]1):yn=k or yn=}

  • return g(x)= tournament champion {w[k,ℓ]Tx}g ( \mathbf { x } ) = \text { tournament champion } \left\{ \mathbf { w } _ { [ k , \ell ] } ^ { T } \mathbf { x } \right\}g(x)= tournament champion {w[k,]Tx}

其优缺点是:

  • pros: efficient (‘smaller’ training problems), stable, can be coupled with any binary classification approaches
    更有效率更加稳定,可以结合任何二分类方法
  • cons: use O(K2) w[k,l]O(K^2) \,\mathbf { w }_ { [ k , l ] }O(K2)w[k,l],more space, slower prediction, more training。
    需要训练O(K2)O(K^2)O(K2),w[k,l],\mathbf { w }_ { [ k , l ] },w[k,l],占用更多的时间和空间。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FlameAlpha

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值