【机器学习基石笔记】五、训练和测试的差距

本文探讨了机器学习中的两个核心问题:Ein和Eout是否接近以及Ein是否足够小。此外,文章还讨论了如何处理无限多个M的问题,并通过感知机的例子来解释自由度与样本点个数之间的关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

两个核心问题:

1、Ein和Eout是否接近

2、Ein是否足够小

 

无限多个M怎么解决?

找到mH,使得M无限也没问题。

上一节课的放缩稍微有点小,应该使用小一点的放缩。

 

在感知机中,其自由度与样本点个数有关,2^n,如果共线的话还会更少。

2^n是上界,要搞定多项式的。

从一维开始推导,

一维中,最多n+1种情况、

一维中选取两个点,最多是n^2级别的

二维中,选取一个凸集,2^n都没问题。所以凸集好像不太好!

 

如果BreakPoint = k, 那么成长的速度为n_(k-1)

尚未证明。

转载于:https://www.cnblogs.com/yesuuu/p/7499533.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值