机器学习中训练集精度高,验证集精度低

    写在最前面:最大的敌人就是自己。多检查,多思考,多受益。

    Batch Normalization layer对于新接触机器学习的同学来说是一个大坑,AI模型摸爬滚打一年,总结BN相关实战经验:

1、网络使用BN层,数据一定要做归一化,RGB除以255,单分类标签为0/1,一定要做!!!

2、使用数据增强,一定要可视化看一下增强后的图像与标签,特别是多分类任务,图像处理差值后标签容易出现改变!

3、均值和方差不一定要算,数据量小(小于10g)的情况下建议直接使用ImageNet等大型数据集均值方差,效果可能更好。

4、一次训练任务,精度上升非常快,出现集精度高(iou 0.5),验证集精度低(1e-12),由于dataset的filelist[index]在测试的时候加了一个编号,写为filelist[0],导致对第一张一直训练,搞到凌晨三点没找到原因,写出来提醒他人。

5、少量数据训练情况下,可直接冻结BN层。

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值