kitti label rotation_y
kitti rotation
-
在sencond 和 det3d中,均是从kitti label信息中读取的在相机坐标系下的rotation信息,在训练过程中也是回归的camera坐标系下的rotation,如果我想得到lidar坐标系下的rotation公式为:
rotation_lidar_y = - (rotation_cam_y + pi/2),至于怎么来的,抽出时间来讲一下,经过网络后得到的输出为(Center_lidar(x,y,z),size_lidar(wlh),rotation_y_camera[弧度])。 -
在det3d的 wamoy 数据集和nuscens,里面的数据格式都是先转换到kitti格式,然后再去训练,最后应该是再返回,这步没看。
-
在OpenPCDet中,直接使用的就是lidar坐标系,在读取完kitti的label的pkl信息后,直接就将相机坐标系下的rotarion转换到了lidar坐标下,所以OpenPCDet的整个过程的坐标都是在激光雷达坐标系下完成的,最终得到的格式也是(center_lidar(x,y,z),size_lidar(lwh),rotation_lidar)
-
在OpenPCdet中,kitti其实标注了8种类别,分别是car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc,但是在测评的时候我们只测评car,ped,cyclist 那么在代码中我们是如何处理的呢?
首先在OpenPCdet中在生成各种pkl和gt base的时候 这些类别实际上依然都存在,比如pkl里面的annation的name里面是包含其他类别的,同样的gt base里面也是. 真正的处理是在pcdet->datasets->dataset.py 中的prepare_data函数里面

本文介绍了在3D目标检测框架中,如何处理Kitti数据集的旋转信息转换,从相机坐标到激光雷达坐标,并详细阐述了OpenPCDet中针对不同类别的处理方式,包括数据过滤、增广以及类别转换。此外,还涉及了数据预处理、IoU计算和数据增强等步骤。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



