OpenVINO Toolkit CVAT 自动标注功能详解
cvat 项目地址: https://gitcode.com/gh_mirrors/cva/cvat
什么是自动标注
在计算机视觉项目中,数据标注是一个耗时且繁琐的过程。OpenVINO Toolkit CVAT 提供的自动标注功能可以显著提升标注效率,它利用预训练模型对数据进行智能预标注,为标注人员提供高质量的初始标注结果。
自动标注模型来源
CVAT 支持三种模型来源:
- 系统预装模型:CVAT 内置了多个经过优化的深度学习模型
- 第三方平台集成模型:支持从 Hugging Face 和 Roboflow 平台集成模型
- 自托管模型:通过 Nuclio 部署的自定义模型
自动标注操作指南
启动自动标注
- 在 CVAT 顶部菜单栏选择"Tasks"
- 找到目标任务,点击"Action" > "Automatic annotation"
- 在弹出的对话框中选择合适的模型
- 进行标签匹配(详见下文)
- 可选设置:
- 将掩码转换为多边形
- 清除已有标注
- 点击"Annotate"开始自动标注
标注过程中可以随时取消操作,系统会显示实时进度条。
标签匹配机制
每个预训练模型都有其特定的标签体系,使用时需要与任务的标签进行匹配。例如:
- 模型标签:"car"
- 任务标签:"vehicle"
此时需要手动建立这两个标签的对应关系。如果任务的某些标签在模型中没有对应项,则无法进行自动标注。
预装模型详解
CVAT 提供了多个开箱即用的预训练模型:
1. 属性化人脸检测模型
由三个 OpenVINO 模型协同工作:
- 人脸检测模型:基于 MobileNetV2 骨干网络,适用于室内外场景
- 情绪识别模型:可识别五种基本情绪
- 年龄性别识别模型:可识别18-75岁人群的年龄和性别
2. RetinaNet R101
单阶段目标检测模型,特点:
- 使用焦点损失函数解决类别不平衡问题
- 包含骨干网络和两个任务特定子网络
- 在密集目标检测场景表现优异
3. 文本检测模型
基于 PixelLink 架构:
- 使用 MobileNetV2 作为骨干网络
- 适用于室内外场景的文本检测
- 支持多方向文本检测
4. YOLO v3 模型
经典目标检测模型:
- 在 COCO 数据集上预训练
- 平衡了检测精度和速度
- 支持80个常见物体类别
5. YOLO v7 模型
最新一代 YOLO 模型:
- 在速度和精度上均有突破
- V100 GPU上可达160FPS
- 在30FPS下达到56.8% AP
第三方模型集成
对于预装模型无法满足需求的场景,CVAT 支持从 Hugging Face 和 Roboflow 平台集成模型:
- Hugging Face:提供丰富的NLP和CV模型
- Roboflow:专注于计算机视觉任务的模型库
集成过程简单直观,用户可以通过图形界面完成模型选择和配置。
使用建议
- 对于通用物体检测,建议优先尝试 YOLO 系列模型
- 人脸相关任务使用属性化人脸检测模型
- 文本场景选择专用文本检测模型
- 特殊需求考虑集成第三方模型
自动标注功能可以显著提升标注效率,但建议人工复核标注结果,特别是在关键应用场景中。对于精度要求高的项目,可以考虑先用自动标注生成初稿,再由专业标注人员进行修正和优化。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考