cub数据集多少张图片_多少张图片构成的数据集才算是足够大,可以用来训练CNN?...

机器学习大牛Peter Warden提出,每个类别至少需要1000张代表性图像来训练分类器。图像质量和数据增强也是关键因素。如果图像数量不足,可以使用数据增强技术提高模型性能。研究论文表明,样本复杂度与CNN模型的维度、预测误差和滤波器大小等因素相关。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前几天我们回答过一个问题:机器学习要求多大的数据量?

机器学习要求多大的数据量?我做的东西到底是不是机器学习?​www.zhihu.com

里面简单提到了两个技巧:10 倍法则和学习曲线。那么如果具体到如题主所说的图像数据集呢?对于这个问题,谷歌机器学习大牛 Peter Warden 发过一篇博客专门探讨过,我们看看他是怎么说的:

今天,有人问了我(Peter Warden——译者注)一个经常被问到的问题——“训练我的分类器,需要多少图像?”以前我大多时候从技术角度正确回答了这个问题,有时也会说“看情况吧”这个无意义的答案。但是这几年我认真思考后,得出了一个相对靠谱的经验法则:

对于每个类,你需要 1000 张具有代表性的训练图像。

当然这条规则不是放之四海而皆准,在有些模型上就不适用,但有时特别有用。下面我就说说这条经验法则的由来,为什么有时它不行,有时却又很有用。

1000 张图像这个数字来自最初的 ImageNet 分类挑战赛,其中数据集有 1,000 个类别,每个类别的每个类别少于 1,000 个图像(我看过的大多数大约有七八百个)。这足以训练像 AlexNet 这样的早期图像分类模型,因此证明大约 1,000 张图像就足够了。

如果数量再少些行吗?有趣的是,根据我的经验,某些情况下可以,但是如果一下子降到只有寥寥数百,从头开始训练模型就变得特别困难了。当然这里也有例外——在已经训练过的模型上使用转移学习时。因为你正在使用是已经查看过大量图像并且学会区分类的网络,所以通常可以教给模型同一领域的新类,只需要几十个数据样本即可。

“同一领域”是什么意思?教一个已经被现实世界物体照片(如 Imagenet)训练的网络识别其他物体,要容易的多,但我们会采用相同的网络并要求它对完全不同类型的图像进行分类,如 X 射线,面部或卫星照片可能不太成功,至少需要更多的训练图像。

另一个关键点是我的那条经验法则所用的“代表性”修饰语。这是因为图像的质量很重要,而不仅仅是数量。重要的是,训练图像应当和模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值