【2025全站首发】YOLOv12训练参数隐藏功能大揭秘!实时可视化你的模型“学习过程”| 小白也能轻松玩转目标检测!
文章目录
1. ultralytics官方训练参数详解
官方文档链接,注意plots
参数默认值为True
,官方文档标注错误。
论据 | 类型 | 默认值 | 说明 |
---|---|---|---|
model | str | None | 指定用于训练的模型文件。接受指向 .pt 预训练模型或 .yaml 配置文件。对于定义模型结构或初始化权重至关重要。 |
data | str | None | 数据集配置文件的路径(例如 coco8.yaml ).该文件包含特定于数据集的参数,包括训练和 验证数据类名和类数。 |
epochs | int | 100 | 训练历元总数。每个历元代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。 |
time | float | None | 最长训练时间(小时)。如果设置了该值,则会覆盖 epochs 参数,允许训练在指定的持续时间后自动停止。对于时间有限的训练场景非常有用。 |
patience | int | 100 | 在验证指标没有改善的情况下,提前停止训练所需的历元数。当性能趋于平稳时停止训练,有助于防止过度拟合。 |
batch | int | 16 | 批量大小有三种模式: 设置为整数(如 batch=16 )、自动模式,内存利用率为 60%GPU (batch=-1 ),或指定利用率的自动模式 (batch=0.70 ). |
imgsz | int 或 list | 640 | 用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。 |
save | bool | True | 可保存训练检查点和最终模型权重。这对恢复训练或模型部署非常有用。 |
save_period | int | -1 | 保存模型检查点的频率,以 epochs 为单位。值为-1 时将禁用此功能。该功能适用于在长时间训练过程中保存临时模型。 |
cache | bool | False | 在内存中缓存数据集图像 (True /ram )、磁盘 (disk ),或禁用它 (False ).通过减少磁盘 I/O,提高训练速度,但代价是增加内存使用量。 |
device | int 或 str 或 list | None | 指定用于训练的计算设备:单个GPU (device=0 )、多个 GPU (device=0,1 )、CPU (device=cpu ) 或MPS for Apple silicon (device=mps ). |
workers | int | 8 | 加载数据的工作线程数(每 RANK 如果多GPU 训练)。影响数据预处理和输入模型的速度,尤其适用于多GPU 设置。 |
project | str | None | 保存训练结果的项目目录名称。允许有组织地存储不同的实验。 |
name | str | None | 训练运行的名称。用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。 |
exist_ok | bool | False | 如果为 True,则允许覆盖现有的项目/名称目录。这对迭代实验非常有用,无需手动清除之前的输出。 |
pretrained | bool | True | 决定是否从预处理模型开始训练。可以是布尔值,也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。 |
optimizer | str | 'auto' | 为培训选择优化器。选项包括 SGD , Adam , AdamW , NAdam , RAdam , RMSProp 等,或 auto 用于根据模型配置进行自动选择。影响收敛速度和稳定性 |
seed | int | 0 | 为训练设置随机种子,确保在相同配置下运行的结果具有可重复性。 |
deterministic | bool | True | 强制使用确定性算法,确保可重复性,但由于对非确定性算法的限制,可能会影响性能和速度。 |
single_cls | bool | False | 在训练过程中将多类数据集中的所有类别视为单一类别。适用于二元分类任务,或侧重于对象的存在而非分类。 |
classes | list[int] | None | 指定要训练的类 ID 列表。有助于在训练过程中筛选出特定的类并将其作为训练重点。 |
rect | bool | False | 可进行矩形训练,优化批次组成以减少填充。这可以提高效率和速度,但可能会影响模型的准确性。 |
multi_scale | bool | False | 通过增加/减少 imgsz 的系数 0.5 在训练过程中通过多次训练,使模型更加准确。 imgsz 在推理过程中 |
cos_lr | bool | False | 利用余弦学习率调度器,根据历时的余弦曲线调整学习率。这有助于管理学习率,实现更好的收敛。 |
close_mosaic | int | 10 | 在训练完成前禁用最后 N 个历元的马赛克数据增强以稳定训练。设置为 0 则禁用此功能。 |
resume | bool | False | 从上次保存的检查点恢复训练。自动加载模型权重、优化器状态和历时计数,无缝继续训练。 |
amp | bool | True | 启用自动混合精度(AMP) 训练,可减少内存使用量并加快训练速度,同时将对精度的影响降至最低。 |
fraction | float | 1.0 | 指定用于训练的数据集的部分。允许在完整数据集的子集上进行训练,这对实验或资源有限的情况非常有用。 |
profile | bool | False | 在训练过程中,可对ONNX 和TensorRT 速度进行剖析,有助于优化模型部署。 |
freeze | int 或 list | None | 冻结模型的前 N 层或按索引指定的层,从而减少可训练参数的数量。这对微调或迁移学习非常有用。 |
lr0 | float | 0.01 | 初始学习率(即 SGD=1E-2 , Adam=1E-3 ) .调整这个值对优化过程至关重要,会影响模型权重的更新速度。 |
lrf | float | 0.01 | 最终学习率占初始学习率的百分比 = (lr0 * lrf ),与调度程序结合使用,随着时间的推移调整学习率。 |
momentum | float | 0.937 | 用于 SGD 的动量因子,或用于Adam 优化器的 beta1,用于将过去的梯度纳入当前更新。 |
weight_decay | float | 0.0005 | L2正则化项,对大权重进行惩罚,以防止过度拟合。 |
warmup_epochs | float | 3.0 | 学习率预热的历元数,学习率从低值逐渐增加到初始学习率,以在早期稳定训练。 |
warmup_momentum | float | 0.8 | 热身阶段的初始动力,在热身期间逐渐调整到设定动力。 |
warmup_bias_lr | float | 0.1 | 热身阶段的偏置参数学习率,有助于稳定初始历元的模型训练。 |
box | float | 7.5 | 损失函数中边框损失部分的权重,影响对准确预测边框坐标的重视程度。 |
cls | float | 0.5 | 分类损失在总损失函数中的权重,影响正确分类预测相对于其他部分的重要性。 |
dfl | float | 1.5 | 分布焦点损失权重,在某些YOLO 版本中用于精细分类。 |
pose | float | 12.0 | 姿态损失在姿态估计模型中的权重,影响着准确预测姿态关键点的重点。 |
kobj | float | 2.0 | 姿态估计模型中关键点对象性损失的权重,平衡检测可信度与姿态精度。 |
nbs | int | 64 | 用于损耗正常化的标称批量大小。 |
overlap_mask | bool | True | 决定是将对象遮罩合并为一个遮罩进行训练,还是将每个对象的遮罩分开。在重叠的情况下,较小的掩码会在合并时覆盖在较大的掩码之上。 |
mask_ratio | int | 4 | 分割掩码的下采样率,影响训练时使用的掩码分辨率。 |
dropout | float | 0.0 | 分类任务中正则化的丢弃率,通过在训练过程中随机省略单元来防止过拟合。 |
val | bool | True | 可在训练过程中进行验证,以便在单独的数据集上对模型性能进行定期评估。 |
plots | bool | True | 生成并保存训练和验证指标图以及预测示例图,以便直观了解模型性能和学习进度。 |
2. 训练过程可视化:TensorBoard 安装与使用详解
在深度学习训练过程中,实时监控模型的性能和训练进度至关重要。TensorBoard 作为 TensorFlow 的官方可视化工具,提供了丰富的功能来帮助开发者直观地了解模型的训练情况。本节将详细介绍 TensorBoard 的安装与使用方法,以提升训练过程的可观测性和调试效率。
2.1 TensorBoard 安装
2.1.1 使用 pip 安装
TensorBoard 可以通过 Python 的包管理工具 pip 进行安装。在终端或命令提示符中执行以下命令即可完成安装:
pip install tensorboard
2.1.2 验证安装
安装完成后,可以通过以下命令验证 TensorBoard 是否正确安装:
tensorboard --version
如果安装成功,将显示 TensorBoard 的版本号。
2.1.3 依赖项
TensorBoard 依赖于 TensorFlow 或其他兼容的后端框架(如 PyTorch)来生成和解析日志文件。确保你的环境中已安装了适当的后端框架,并与其版本兼容。
2.2 TensorBoard 使用
2.2.1 启动 TensorBoard
要启动 TensorBoard,需要指定一个日志目录,其中包含由训练过程生成的事件文件。以下是启动 TensorBoard 的基本命令:
tensorboard --logdir=runs/detect
其中,runs/detect
是包含事件文件的目录路径。你可以根据实际的日志目录路径进行调整。
2.2.2 访问 TensorBoard 界面
启动 TensorBoard 后,它将在默认的 6006 端口上运行。在浏览器中输入以下 URL 即可访问 TensorBoard 的 Web 界面:
http://localhost:6006
如果 TensorBoard 在远程服务器上运行,需要将 localhost
替换为服务器的 IP 地址或域名。
2.2.3 TensorBoard 主要功能
TensorBoard 提供了多种可视化功能,帮助开发者全面了解模型的训练过程:
- 标量(Scalars):显示训练过程中的标量值,如损失函数、准确率等。
- 图像(Images):展示训练过程中生成的图像,如输入图像、预测结果等。
- 直方图(Histograms):显示张量(如权重、偏置)的分布情况,帮助分析模型的参数变化。
- 分布图(Distributions):以分布图的形式展示张量的统计信息,与直方图功能类似,但更侧重于整体分布。
- 计算图(Graphs):可视化模型的计算图,帮助理解模型的结构和数据流。
- 嵌入向量(Embeddings):展示高维嵌入向量的可视化结果,常用于分析词向量等。
2.2.4 高级用法
-
自定义端口:如果默认的 6006 端口已被占用,可以通过
--port
参数指定其他端口:tensorboard --logdir=runs --port=6007