fast_bev 学习笔记

一. 简述

原文:Fast-BEV: A Fast and Strong Bird’s-Eye View Perception Baseline
FAST BEV是一种高性能、快速推理和部署友好的解决方案,专为自动驾驶车载芯片设计。该框架主要包括以下五个部分:

Fast-Ray变换:这是一种轻量级的、部署友好的视图变换,它将多视图2D图像特征沿着相机射线的体素投影到3D,从而快速获得BEV(鸟瞰图)表示。相较于传统方法,这种变换方式显著提升了推理速度,使得多尺度投影操作变得更为高效和实用。
多尺度图像编码器:利用多尺度信息来获取更好的性能。通过多尺度投影操作,编码器能够充分利用不同尺度的图像特征,从而增强BEV感知的准确性和鲁棒性。
高效BEV编码器:专为加速车载推理而设计。通过使用少量的原始残差网络作为基本BEV编码器,该部分能够在保证性能的同时,进一步降低计算复杂度和推理时间。
数据增强:针对图像和BEV空间的强大数据增强策略,以避免过度拟合。通过引入各种数据变换和增强技术,可以提高模型的泛化能力,使其在面对不同场景和复杂环境时仍能保持良好的性能。
时间融合:利用时间信息的多帧特征融合机制。通过融合多帧图像的特征信息,该部分能够捕捉动态场景中物体的运动轨迹和状态变化,从而进一步提升BEV感知的准确性和实时性。
FAST BEV的优势在于其能够在保证高性能的同时,实现快速推理和方便部署。这使得它成为自动驾驶车载芯片上一种理想的解决方案。此外,相较于传统方法,FAST BEV无需使用昂贵的视图变换器或深度表示,从而降低了硬件成本和维护难度。

综上所述,FAST BEV通过优化视图变换、编码器设计、数据增强和时间融合等方面,实现了高性能、快速推理和部署友好的自动驾驶解决方案。随着自动驾驶技术的不断发展,FAST BEV有望在未来发挥更大的作用。

二. 输入输出

FAST BEV的输入主要是多相机RGB图像,
输出则是预测的3D边界框(包括速度)和地图分割结果。

通过一系列的处理步骤,如Fast-Ray变换、多尺度图像编码、高效BEV编码等,对输入的RGB图像进行特征提取、视图变换和编码,最终输出3D边界框和地图分割结果。

三. github资源

源码: https://github.com/Sense-GVT/Fast-BEV
使用CUDA和TensorRT进行Fast-BEV推理: https://github.com/Mandylove1993/CUDA-FastBEV
https://github.com/linClubs/FastBEV-ROS-TensorRT

Fast-BEV代码复现实践: https://blog.youkuaiyun.com/h904798869/article/details/130317240
Fast Bev在ubuntu上的复现过程以及error汇总: https://blog.youkuaiyun.com/qq_42704750/article/details/130280567
复现教程1 : https://zhuanlan.zhihu.com/p/631504194

四. 复现推理过程

4.1 cuda tensorrt 版

参考链接:https://github.com/Mandylove1993/CUDA-FastBEV

提供了PTQ和QAT的int8量化代码,
PTQ (Post-Training Quantization)是在模型训练完成后进行的量化,通过分析训练好的模型的权重和激活的分布来确定量化参数(如缩放因子和零点偏移)。
QAT(Quantization Aware Training)通过在训练过程中模拟量化操作来优化模型的权重,以减少量化带来的精度损失。
int8量化代码: 将模型的权重从浮点数转换为int8。在推理过程中,将模型的激活从浮点数转换为int8。在计算层输出时,将int8值转换回浮点数以便进行后续计算。

问题1:
安装mmcv mmdet mmdet3d 参考:https://blog.youkuaiyun.com/h904798869/article/details/130317240版本如下:
在这里插入图片描述

问题2:
安装spconv:

pip install torch==1.10.0+cu113 torchvision==0.11.0+cu113 torchaudio==0.10.0 -f https://download.pytorch.org/whl/torch_stable.html

git clone https://github.com/traveller59/spconv.git 
cd spconv
git checkout v1.2.1
git submodule update --init --recursive 
python setup.py bdist_wheel

cd ./dist
pip install spconv-.....

python 
import spconv

问题:https://blog.51cto.com/u_15906550/5921374

训练

https://blog.youkuaiyun.com/yunqiushuiman/article/details/136537614
https://zhuanlan.zhihu.com/p/627783225

修改图像数

根据这个代码片段,训练数据应该包含以下内容: 1. 图像序列数据:包含时间序列长度为T,每个时间点有N个相机的图像数据,每个图像数据有3个通道,高度为H,宽度为W。 2. 相机内参数据:包含时间序列长度为T,每个时间点有N个相机的内参数据,3x3矩阵。 3. 相机外参数据:包含时间序列长度为T,每个时间点有N个相机的外参数据,4x4矩阵,表示世界坐标系到相机坐标系的变换。 4. 语义分割数据:包含时间序列长度为T,每个时间点有一个大小为(H_bev, W_bev)的像素矩阵,用于对齐不同相机的视角,进行语义分割。 5. 实例分割数据:包含时间序列长度为T,每个时间点有一个大小为(H_bev, W_bev)的像素矩阵,用于对齐不同相机的视角,进行实例分割。 6. 中心度数据:包含时间序列长度为T,每个时间点有一个大小为(H_bev, W_bev)的像素矩阵,用于目标检测中计算目标中心度。 7. 偏移数据:包含时间序列长度为T,每个时间点有一个大小为(H_bev, W_bev)的2通道像素矩阵,表示目标检测中目标边框的偏移量。 8. 光流数据:包含时间序列长度为T,每个时间点有一个大小为(H_bev, W_bev)的2通道像素矩阵,表示像素在不同时间点之间的位移。 9. 未来自运动数据:包含时间序列长度为T,每个时间点有一个大小为6的向量,表示相机的自运动状态,即从t时刻到t+1时刻的相机位姿变换。 10. 数据标识信息:包含时间序列长度为T的采样标识符列表。 11. 其他数据:包含时间序列长度为T的高度信息列表(list_z_position),以及时间序列长度为T的属性标签列表(list_attribute_label)。 具体如何得到这些训练数据,需要根据具体的任务和数据来源进行采集和处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值