hi我是菜鸟小明哥,之前的二分类领导说正例的P值太低,我也这么觉得,但正例少,加上权值weight调整也不行啊,肯定是这样的啊:对于一个分类器来说,如果正例少,那么将所有的分为负例,就已经能保证很高的ACC了,这时正例的R值为0(一个没查到),而P值为0/0,当考虑另一极端情况,就是将所有的都分为正例,此时R值为100%(即全都查到了),而P值则为正/(正+负),[正,负代表样本实际标签],而负例较多,P值就趋于0了,分类器训练结果肯定在这两种情况之中,那么R值越高,就可能将很多负例也分为了正例,这导致P值降低,这也是PR值一般此消彼长的缘故,但数据均衡的情况下,好的网络或分类器则可能都好。关于这种文字游戏详见此文。
For Recommendation in Deep learning QQ Group 102948747