YOLOv5 参数介绍

本文详细解析了深度学习训练过程中的关键参数,包括--weights、--cfg、--data等,并探讨了训练策略,如--epochs、--batch-size和--optimizer的选择。同时,介绍了如何利用--cache加速训练,以及--label-smoothing防止过拟合。此外,还讨论了多尺度训练 (--multi-scale) 和线性学习率调整 (--linear-lr) 对模型性能的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

train.py

--weigths: 指的是训练好的网络模型,用来初始化网络权重

--cfg:指的是网络结构

--data:训练数据路径

--hyp: 训练网络的一些超参数设置

--epochs:训练迭代次数

--batch-size:每次喂给神经网络的图片数目

--imgsz:训练图片尺寸

--rect: 是否采用矩形训练

--resume: 指定你之前训练的网络模型,想继续训练这个模型

--nosave: 只保留最终网络模型

--noval:是否只在最后一次测试网络模型

--noautoanchor:是否采用锚点

--evolve:是否寻找最优参数

--bucket:没用了

--cache:是否对图片进行缓存,加快训练

--image-weights:测试过程中,图像的那些测试地方不太好,对这些不太好的地方加权重

--device:训练网络的设备cpu还是gpu

--multi-scale:图片尺度变换

--single-cls:训练数据集是单类别还是多类别

--adam:是否采用adam

--sync-bn:分布式训练

--workers: 多线程训练

--project:训练结果保存路径

--name: 训练结果保存文件名

--exist-ok: 覆盖掉上一次的结果,不新建训练结果文件

--quad:在dataloader时采用什么样的方式读取我们的数据

--linear-lr:按照线性的方式去调整学习率

--label-smoothing: 对标签平滑,防止过拟合

-patience:没用过,这里感觉意思就是训练到oatience次数时停止

--freeze:冻结哪些层,不去更新训练这几层的参数

--save-period:训练多少次保存一次网络模型

--local_rank:分布式训练

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值