Logit Adjust
BER
我们在分类问题中常用的误分类函数使得分类器最终学到的分布:
P ( y ∣ x ) ∝ P ( y ) P ( x ∣ y ) P(y|x) \propto P(y)P(x|y) P(y∣x)∝P(y)P(x∣y)
假设在一个不平衡猫狗二分类问题中,狗是一个小类,只有整个数据集的1%的数据量。则 P ( y ) = 0.01 P(y)=0.01 P(y)=0.01,这样无论 P ( x ∣ y ) P(x|y) P(x∣y)有多大,右边这一项都会很小。所以作者使用BER即banlance error rate,
首先举一个例子方便快速理解BER的思想:
源地址

根据上面这个混淆矩阵有 B E R = 0.5 ∗ ( b a + b + c c + d ) BER = 0.5 * (\frac{b}{a+b}+\frac{c}{c+d}) BER=0.5∗(a+bb+c+dc)通常的误差计算公式则为 E R = b + c a + b + c + d ER=\frac{b + c}{a+b+c+d} ER=a+b+c+db+c

最低0.47元/天 解锁文章
3034





