神经网络关于训练集数据量越大,效果越好的误解

本文探讨了训练数据集大小与模型预测效果之间的关系。指出数据量增大通常能提高预测精度,但需确保网络结构足够复杂以充分利用大量数据特征。同时,文章提及了交叉验证的重要性,并强调了网络提取特征能力对效果的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

之前一直想不通为什么训练集为什么一直需要越大越好?通常来说,训练喂的数据越多,预测应该越好吧。最好,用交叉验证确认一下也有可能训练样本量大,数据特征较多,但网络层次太少,特征训练不充分,预测结果变差,这样才对啊。随着慢慢的学习,数据量越大效果越好,这前提是网络提取特征能力不能太差,效果的好坏是有多方面因素的。多方面因素我还没理解透每一方面具体的体现。如有不正确的,还望指教。嘻嘻,学无止境啊。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值