萤火跑模型 | 多卡并行助力 BEVFormer 三小时全精度训练

本文介绍了BEVFormer模型在自动驾驶感知中的重要性,以及在多GPU并行训练时遇到的性能下降问题。幻方AI通过3FS、ffrecord和hfai.autotune等工具进行优化,成功在3小时内用160张GPU重现了模型精度。文章详细探讨了训练优化过程,为研究者提供效率提升的思路。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

感知系统是自动驾驶系统中不可或缺的部分,系统中包括许多视觉任务,例如目标检测分割、目标跟踪、语义和实例分割、车道线检测等等。感知系统通过对周围环境状态的准确估计,为预测、规划等下游任务提供重要的依据。其中如何利用车载环视相机采集到的多个视角图像,实现精准的 3D 目标检测和分割是感知系统中最为基础且重要的任务。

2021年9月特斯拉的 AI Day 上,Karpathy 展示了他们的纯视觉自动驾驶感知框架,核心是基于 Transformer 网络结构,在鸟瞰图(BEV,Bird’s eye view)视角下进行感知,紧随其后,学术界也逐渐涌现了基于 Transformer 和 BEV 的优秀工作,其中 BEVFormer 通过构建时空融合网络,在 nuScenes 和 Waymo 的检测比赛上都榜上有名,受到了诸多关注。

然而,最近不少学者和开发者在复现优化 BEVFormer 模型时发现,当使用多显卡加速模型的训练时,随着并行 GPU 数的增加,训练最终的结果反而变差了。这无疑对自动驾驶模型的产业落地造成了不少制约。

幻方 AI 最近对 BEVFormer 进行了整理和优化,分析了其多显卡并行训练精度降低的原因。通过幻方自研的 3FSffrecord 对模型训练进行提速;利用 hfai.autotune 进行自动集群参数的搜索,最终在幻方萤火集群上耗时差不多三小时完成了 BEVFormer 的大规模多卡并行训练,并实现了最终精度的复现。

本期文章将为大家详细描述我们的训练优化过程,为研究者和开发者们提供效率提升的思路。

论文标题:BEVFormer: Learning Bird’s-Eye-View Representation from Multi-Camera Images via Spatiotemporal Transformers

原文地址:https://arxiv.org/abs/2203.17270

项目主页:https://github.com/HFAiLab/BEVFormer

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

幻方AI小编

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值