3D VLA新范式!CVPR冠军方案BridgeVLA,真机性能提升32%

BridgeVLA:高性能3D VLA新范式及大模型AI学习

近年来,视觉-语言-动作(VLA)模型在机器人操作任务中大放异彩,成为推动通用机器人操作的重要引擎。

但现有的VLA模型,大多只以2D信息作为输入,且需要大量的机器人数据进行微调;

反观以PerAct,RVT-2为代表的3D操作策略,通常仅需要10条轨迹就能够取得不错的效果,因此,一个很自然的想法是,是否能将现有的2D VLA升级为3D VLA,使其同时兼具2D VLA的效果以及3D操作策略的效率?

中科院自动化所的研究人员提出的BridgeVLA给出了肯定的回答!

img

论文链接:https://www.arxiv.org/abs/2506.07961

项目主页:https://bridgevla.github.io/home_page.html

实验表明,BridgeVLA仅需采集3条轨迹就能在基础设置中实现**96.8%**的任务成功率。

在多种泛化性设置中,比如未见过的干扰物、高度、光照、物体种类以及未见过的物体技能组合等,BridgeVLA展现出碾压式的性能,相较于基线模型取得了**32%**的性能提升。

在仿真中,BridgeVLA屠榜了主流3D机器人操作基准,在RLBench、COLOSSEUM、GemBench等三个仿真基准中均取得了最先进的性能。

2D VLA的泛化,3D Policy的效率,这下全部打包带走!

缩小VLM和VLA之间的迁移差距

img

图1. BridgeVLA统一输入与输出的方案,兼顾泛化性与高效性

近来,OpenVLA、pi0等2D VLA架构在机器人领域取得了广泛关注,它们借助预训练多模态大模型强大的表征能力,将自然语言指令、图像观测与动作预测串联在一起,展现出很强的泛化能力。

然而,这类型2D VLA所带来的代价同样很大:为了让模型真正学会每个任务,往往需要上百条专家演示。这其中的数据收集、清洗与标注需要高昂的人力成本,很难在更大规模的工业场景下落地。

与此同时,研究者们发现,如果直接在3D空间中学习动作策略,凭借3D输入蕴含的显式空间结构信息,模型只需极少的轨迹就能掌握操作技能,具有很高的数据效率。

因此,理论上来讲,将3D信息和VLA相结合是有可能构造出一个高性能且高效率的3D VLA模型的。然而,当前已有的3D VLA模型却并未实现上述期待。

BridgeVLA的研究团队发现,这背后有两个方面的原因:

1)这些方案输出形式割裂。大多数3D VLA方法把动作输出建模为 token 序列,这样的做法割裂了动作输出与观测输入之间的空间对应关系,难以充分利用三维几何信息。

2)这些方案的输入和预训练多模态大模型的输入分布不匹配。预训练VLM是以2D 图像作为输入的,而这与微调阶段的3D 输入分布差异巨大,导致直接迁移效果不佳。

基于这些观察,BridgeVLA的研究团队提出:如果将3D输入与动作输出都统一到2D空间,同时将预训练阶段的输入和输出也统一到2D空间的话,将可以同时继承2D VLA的泛化能力与3D操作策略的数据效率。

BridgeVLA是如何设计的?

img

图2. BridgeVLA 2D热度图预训练与3D动作微调结构图

BridgeVLA的训练流程主要分为两个阶段:首先是2D 热度图预训练,然后是3D动作微调。预训练阶段主要用于提升模型的空间感知能力,使其具备从图像和语言描述中精准定位目标区域的能力;而微调阶段则通过三视角图像进行动作预测,完成具体的 3D 操作策略学习。

传统的预训练多模态大模型在预训练阶段主要通过预测token 序列来完成分类或生成任务,而这样的token序列并不具备任何的空间结构。

为了使模型具备空间定位能力,BridgeVLA 设计了一种热度图预训练方式,训练模型根据文本指令预测关于目标对象位置的概率热度图,并使用了 RoboPoint 中的目标检测数据集进行预训练。

在模型结构上,BridgeVLA使用了由SigLIP视觉编码器和Gemma Transformer构成的PaliGemma作为VLM主干。

预训练时,模型的输入为图像与其对应的文本描述(如图中红色的杯子在哪),然后通过PaliGemma提取特征,最后使用一个可学习的上采样模块生成与原图同分辨率的热度图。

整个过程采用交叉熵损失进行监督训练。这种预训练策略使VLM获得了空间感知能力,能够根据语言描述在图像中精准定位目标区域,为后续下游3D操作策略学习提供帮助。

在微调阶段,模型的目标是根据3D点云和语言指令输出合理的机器人动作。

具体来说,BridgeVLA首先从顶部、正面和右侧三个方向将点云渲染为三幅2D图像,并将其作为输入送入经过重新预训练的 VLM 主干网络。模型随后会为每个视角生成一张2D 热度图。

为了保持微调与预训练的一致性,VLM 的输入中不包含机器人状态或其他非视觉信息,从而避免输入分布偏移。通过结合深度图和相机参数,三个热度图可以被反投影,从而得到末端执行器的位置估计。

末端执行器的旋转姿态和夹爪开闭状态则通过额外引入的MLP进行预测。

泛化性能与采样效率的兼得

BridgeVLA在多个主流3D操作榜单上都取得了最先进的性能。在RLBench中成功率达88.2%,相较于基准模型提升了6.8%

而在环境出现颜色、材质、物体大小等12种干扰的COLOSSEUM环境中相较于之前SoTA方法提升了7.3%,在同样极具挑战的GemBench环境中,即使面对全新位置、全新物体的考验,BridgeVLA也取得了最佳的50%的成功率。

这些实验都证明了BridgeVLA具备很强的泛化能力,充分利用了预训练多模态模型中蕴含的丰富视觉与语言先验知识。

img

图3. BridgeVLA 在RLBench上的实验结果

img

图4. BridgeVLA 在COLOSSEUM上的实验结果

img

图5. BridgeVLA 在GemBench上的实验结果

BridgeVLA同时在真机实验中进行了大规模实验,BridgeVLA可以很好的克服干扰物、不同高度、不同光照条件、不同背景的影响,同时也具有一定的组合泛化能力、和全新物体的泛化能力,这都得益于预训练骨干网络中蕴含的先验特征。

同时BridgeVLA也证明了其极高的数据效率,仅仅使用3条轨迹就可以达到96.8%的基础任务成功率,几乎与使用10条轨迹训练的版本持平,结果表明BridgeVLA不仅泛化能力强,而且对数据要求极低,非常适合在真实机器人系统中部署与扩展。

img图6. BridgeVLA 在真机实验上的实验结果

BridgeVLA通过统一预训练的输入输出到二维图像空间,建立起了一个高性能且高数据效率的3D VLA新范式。

可以预见,未来将有更多类似的探索推动 VLA 模型持续演进,迈向新的高度。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

由于给定引用内容中未提及3D projector性能3D - VLA整体性能的影响相关信息,下面基于一般知识进行分析。 3D投影仪的性能3D - VLA(视觉语言动作)整体性能可能存在多方面影响。从视觉呈现角度来看,3D投影仪的分辨率会影响3D - VLA系统所处理视觉信息的清晰度。若分辨率较低,图像模糊,系统可能难以准确识别物体的细节和特征,进而影响其理解环境和执行动作的能力。例如在一个需要识别特定物体并进行操作的任务中,低分辨率图像可能导致系统误判物体的形状和位置,从而执行错误的动作。 对比度也是重要的性能指标。高对比度能使图像的亮部更亮,暗部更暗,增强图像的层次感和立体感。在3D - VLA系统中,良好的对比度有助于更清晰地呈现物体的边界和深度信息,让系统更好地感知物体之间的空间关系,提高动作规划的准确性。 投影亮度同样关键。若亮度不足,在环境光较强的情况下,图像可能会显得暗淡,降低视觉信息的可辨识度。这可能使3D - VLA系统在处理视觉数据时出现困难,导致对环境的感知不准确,影响其决策和动作执行。 响应时间方面,较快的响应时间可以减少图像的拖影现象,对于快速移动的物体或动态场景,能更准确地捕捉其运动轨迹。在3D - VLA系统中,如果涉及到对动态物体的跟踪和操作,响应时间过长可能导致系统无法及时跟上物体的运动,从而影响动作的执行效果。 ### 示例代码(模拟简单的视觉信息处理) ```python import cv2 # 模拟从3D投影仪获取图像 def get_image(): # 这里简单返回一个示例图像,实际应从投影仪获取 return cv2.imread('example_3d_image.jpg') # 简单的视觉信息处理函数 def process_image(image): # 转换为灰度图像 gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # 进行边缘检测 edges = cv2.Canny(gray, 50, 150) return edges # 获取图像 image = get_image() # 处理图像 processed_image = process_image(image) # 显示处理后的图像 cv2.imshow('Processed Image', processed_image) cv2.waitKey(0) cv2.destroyAllWindows() ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值