27、神经网络分类与先验类概率:挑战与解决方案

神经网络分类与先验类概率:挑战与解决方案

在神经网络的应用中,多层感知器(MLP)分类问题常常会遇到与单个类别的先验概率相关的问题。当每个类别对应的训练示例数量在不同类别之间存在显著差异时,网络可能在学习较罕见类别时遇到困难。这一实际情况与理论结果不符,理论表明MLP能够近似贝叶斯后验概率,且与先验类概率无关。

1. 问题背景

理论上,当网络期望输出为1 of M且使用平方误差或交叉熵成本函数时,MLP可以近似贝叶斯后验概率。但这一结果依赖于一些假设,包括网络足够大、训练收敛到全局最小值、有无限的训练数据,以及测试集的先验类概率能在训练集中得到正确体现。

在实践中,当训练集中各类别的频率差异显著时,MLP分类会出现问题。网络可能会偏向于预测更常见的类别,导致较罕见类别的分类性能变差。例如,在语音应用中,先验概率较低的类别可能会被“忽略”。

2. 解决方法

为了解决这个问题,下面介绍几种基于类别进行缩放的方法。
- 先验缩放(Prior Scaling)
- 该方法根据先验类概率对每个类别的权重更新进行缩放。对于每个模式的梯度下降权重更新,通过调整权重更新,使得每个类别的模式的总期望更新相等。
- 缩放因子的计算公式为:$s_x = \frac{1}{p_xN_c}$,其中 $s_x$ 是与属于类别 $x$ 的模式相关的所有权重更新的缩放因子,$N_c$ 是类别数量,$p_x$ 是类别 $x$ 的先验概率。
- 为了选择介于不进行先验缩放和上述先验缩放之间的缩放程度,可以使用以下缩放规则:$s’ x = 1 - c_s + \frac{c_s}{p_x

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值