OpenMPD:用于自动驾驶的多模态感知数据集解析
1. 自动驾驶相关数据集概述
数据集是开发自动驾驶感知系统的基础。目前存在多种不同类型的数据集,各有其特点和局限性。
1.1 综合数据集
- KITTI :作为最早的多模态数据集之一,包含来自激光雷达(LiDAR)的点云、两种相机的前向图像以及GPS/IMU数据。数据采集自城市、市区和高速公路场景,具有复杂场景。提供2D和3D注释数据,2D和3D边界框数量约为80k。但2D部分规模、设备和天气方面存在限制,仅包含约15k RGB图像和点云,且所有数据均在晴天采集,未考虑雪天和雨天等环境。
- nuScenes :是最大的多模态数据集之一,包含140万张图像和40万个点云。拥有由六个相机、一个激光雷达和五个雷达构建的真正360度采集传感器。选用32束激光雷达,与雷达相比,其精度和密度更高,但探测范围较短。不过,该数据集仅提供3D边界框注释,对多任务学习不太友好。
- Waymo :是最大且最多样化的多模态自动驾驶数据集之一,配备五个高分辨率相机和五个高质量激光雷达,采集的数据密集且清晰。从1150个场景中提供了1200万个3D边界框和990万个2D边界框。其检测和跟踪主要依赖激光雷达而非相机,且相机视角小于270度。
- ApolloScape :于2017年发布,包含143,906个图像帧。不仅为用户提供三级难度设置以测试和训练算法,还设计了高效的2D/3D联合标记管道,可节省约70%的标记时间。但激光扫描
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



