经验风险最小化与结构风险最小化浅析

本文探讨了结构风险最小化(SRM)和经验风险在支持向量机中的作用。SRM旨在通过平衡经验风险和置信风险来最小化实际风险,确保在有限样本时的泛化能力。置信风险受样本数量和分类函数VC维影响,VC维越大,推广能力越弱。SRM原则在保证分类精度的同时降低VC维,以控制期望风险。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在学习支持向量机,对经验风险最小化与结构风险最小化不是很了解,仔细研究后发现原来真的很简单。首先要了解一下几个概念。

置信风险: 分类器对 未知样本进行分类,得到的误差。

经验风险: 训练好的分类器,对训练样本重新分类得到的误差。即样本误差

结构风险:置信风险 + 经验风险

泛化误差界的公式为:

R(w)≤Remp(w)+ϕ(h/n)R(w)≤Remp(w)+ϕ(h/n) 
公式中R(w)就是真实风险,Remp(w)就是经验风险,Ф(n/h)就是置信风险。统计学习的目标从经验风险最小化变为了寻求经验风险与置信风险的和最小,即结构风险最小。

VC置信范围(VC confidence):学习机器的VC维及训练样本数有关。 VC维反映了函数集的学习能力,VC维越大则学习机器越复杂(容量越大)

VC维:将N个点进行分类,如分成两类,那么可以有2^N种分法,即可以理解成有2^N个学习问题。若存在一个假设H,能准确无误地将2^N种问题进行分类。那么这些点的数量N,就是H的VC维。

结构风险最小化(SRM)的基本思想

      所谓的结构风险最小化就是在保证分类精度(经验风险)的同时,降低学习机器的 VC 维,可以使学习机器在整个样本集上的期望风险得到控制。

        传统机器学习方法中普遍采用的经验风险最小化原则在样本数目有限时是不合理的,因此,需要同时最小化经验风险和置信范围。

机器学习过程不但要使经验风险最小,还要使VC维尽量小以缩小置信范围,才能取得较小的实际风险,即对未

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值