机器学习笔记之十七——VC dimension

本文深入探讨了VC维(Vapnik-Chervonenkis Dimension)的概念,它是衡量模型复杂度和学习性能的重要指标。通过理解VC维,我们能更好地把握模型的泛化能力,确保其在未见数据上的表现。文章详细解释了如何计算VC维,并以感知机为例,展示了其在不同样本数量下所能达到的最大分类组合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

定义 

 VC维(外文名Vapnik-Chervonenkis Dimension)的概念是为了研究学习过程一致收敛的速度和推广性,由统计学理论定义的有关函数集学习性能的一个重要指标。

传统的定义是:对一个指示函数集,如果存在H个样本能够被函数集中的函数按所有可能的2的H次方种形式分开,则称函数集能够把H个样本打散;函数集的VC维就是它能打散的最大样本数目H。若对任意数目的样本都有函数能将它们打散,则函数集的VC维是无穷大,有界实函数的VC维可以通过用一定的阈值将它转化成指示函数来定义。

                                                                                                                             ——百度百科

   个人理解:VC维用来衡量模型的容量,或者说能够拟合多少个样本数据。

为什么需要VC维?

    为学习器为什么work提供一个理论支撑。如感知机work的理论支持如下两条:

       1.线性可分的数据通过PLA算法运行足够长的时间(T步骤足够大),则会找出一条可以正确分类的直线,使得样本中没有产生分错类的情况,即  ;

       2.在训练样本和整个数据集都服从同一分布P的前提下,有VC限制保证了,在  且训练样本N足够大时,  。

VC维怎么计算?

对于一个只有两个样本点的平面,使用一条直线的感知机可以将这两个样本点分成四种结果:{(1,1),(1,-1),(-1,1),(-1,-1)}

对于一个只有三个样本点的平面,使用一条直线的感知机可以将三个样本点分成八种结果(除去三点同线的特殊情况)。

对于一个有四个样本点的平面,涉及到如下XOR问题,使用一条直线的感知机无法处理。

这是需要先提出一个概念,shatter——对于一个只有N个点的平面,可以使用model将样本点分成2的N次方个结果,称为shatter。

一个模型最大的可以shatter的样本集的数量N,称为模型的VC维。如感知机无法处理四个样本点的XOR问题,所以它可以shatter的最大样本数量维3,及VC维是3.

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值