VLA + 世界模型:又一次漂亮的补位,和一个更深的“陷阱”……

VLA与世界模型融合新突破

「点击加入交流群」

VLA 与世界模型的再次强绑定

——是突破还是精致的技术缝合?

在机器人操控的技术体系里,VLA 模型和世界模型被视为两大核心支柱,但二者长期处于 “各自为战” 的状态。

VLA 的优势很直接,能精准对接人类语言指令和视觉环境,输出对应的机器人动作。但无法理解动作会给环境带来怎样的变化,也缺乏对物理规律的认知。

世界模型虽能弥补VLA的不足,但是没有直接生成动作的能力。

阿里达摩院团队正是看准了二者的互补性——

最新推出了 RynnVLA-002,在先前成果 WorldVLA 的基础上,进一步将VLA 与世界模型整合到同一框架中

让 VLA 的动作生成能力为世界模型的环境预测提供依据,同时用世界模型的环境预判来优化 VLA 的动作决策。

一场“优雅的补位”,让两类模型在同一个系统里双向驱动。但优雅的背后,往往藏着更深的博弈——

当两套复杂系统被紧密耦合,它们的局限是否也会被叠加?

当决策依赖于预测,预测的偏差又将如何被放大?

补位之后,是否会有新的“陷阱”显露……

在系统介绍RynnVLA-002之前,先澄清它与此前发布的RynnVLA-001的区别:

RynnVLA-001专注于通过12M自我中心视频的两阶段预训练(视频生成+轨迹感知建模)来改善机器人操作的动作预测;

相关阅读:阿里达摩院用 1200 万第一视角视频打底,新成果 RynnVLA-001 大幅碾压主流模型!

而RynnVLA-002则将VLA模型和世界模型统一在一个框架中,让两者相互促进——世界模型学习环境物理规律来帮助动作生成,VLA模型增强视觉理解来支持图像生成。

图片

▲图1 | (a) VLA模型基于图像理解生成动作;(b) 世界模型基于图像和动作理解生成图像;(c) 动作世界模型统一了图像和动作的理解与生成。

RynnVLA-002 是基于先前 WorldVLA 进行改进的。

接下来我们看看这一改进的必要性。

长期以来,标准VLA架构存在三个根本性缺陷:

无法充分理解动作:动作仅存在于输出端,模型无法形成对动作动态的显式内部表示。

缺乏想象能力:模型不会预测给定候选动作后世界可能如何演变

没有显式的物理理解:模型难以内化物体交互、接触或稳定性等概念。

世界模型虽然直面这些局限性,但受限于无法直接生成动作输出,在需要显式动作规划的场景中存在功能缺口。

▲VLA模型结果

为此,研究团队先提出了WorldVLA——一个用于统一动作和图像理解与生成的自回归动作世界模型。

验证了VLA模型与世界模型可以相互增强这一核心假设,并提出了动作注意力掩码策略来解决自回归生成中的错误累积问题。

相关阅读:首个!阿里巴巴达摩院:世界模型+动作模型,给机器人装上「预言&执行」双引擎

▲世界模型结果

然而,WorldVLA在真实世界机器人实验中暴露出泛化能力有限、推理速度慢、轨迹不平滑等问题。

在此基础上,研究团队进一步提出了RynnVLA-002,通过引入连续Action Transformer来克服这些局限性。

以下是两者的详细对比:

图片

▲WorldVLA与RynnVLA-002的对比。

因此,RynnVLA-002 在 WorldVLA 的基础上,通过引入连续Action Transformer ,解决了离散模型在真实世界中泛化差、推理慢、轨迹不平滑的问题,同时保留了离散动作建模来加速训练收敛。

如图2所示,RynnVLA-002使用三个独立的分词器分别编码图像、文本和动作。

来自不同模态的token被设置为共享同一词汇表,使得这些模态的理解和生成可以在单一LLM架构内统一。

图片

▲图2 | RynnVLA-002概览。RynnVLA-002在训练过程中涉及VLA模型数据和世界模型数据。

  • VLA模型部分的输入token序列结构为:

{text} {state} {image-front-wrist} ×M → {action} ×K

VLA模型基于语言指令、本体感受状态和M个历史图像观察生成K个动作。

文本输入为"What action should the robot take to + <task> + ?"。

  • 世界模型部分的输入token序列结构为:

{text} {images-front-wrist} {action} → {images-front-wrist}

世界模型基于当前图像观察和动作生成下一帧图像。

所有训练实例共享相同的文本前缀"Generate the next frame based on the current image and the action."。

不需要其他任务指令,因为动作本身可以完全决定世界的下一个状态。

离散动作块的注意力掩码策略

研究团队引入了一种针对动作生成的替代注意力掩码,如下图(b)所示。

图片

▲图3 | (a) 默认VLA模型、(b) 本文提出的VLA模型、(c) 世界模型的注意力掩码。

这种修改后的掩码确保当前动作仅依赖于文本和视觉输入,同时禁止访问先前的动作。

这种设计使自回归框架能够独立生成多个动作,减轻了错误累积问题。

连续动作的Action Transformer

虽然离散动作分块模型在仿真中表现良好,但在真实世界机器人实验中却很少成功。这种差异源于真实世界应用需要显著更高的泛化能力来应对光照和物体位置等动态变量——这些因素在仿真中无法完全捕获。

因此,研究团队提出增加一个专用的 Action Transformer 来生成连续动作序列。

该模块处理完整上下文(包括语言、图像和状态token),并利用可学习的动作查询并行输出整个动作块。

整体损失函数变为:$L = L_{dis} + \alpha L_{conti} = L_{dis_{action}} + L_{img} + \alpha L_{conti_{action}}$

仿真基准测试

实验在LIBERO基准上进行评估,该基准包含四个不同的测试套件:

  • LIBERO-Spatial关注空间关系;

  • LIBERO-Object强调物体识别和操作;

  • LIBERO-Goal测试程序学习;

  • LIBERO-Long包含10个复杂的长时域操作任务。

图片

▲表1 | LIBERO基准上的评估结果。预训练指模型在大规模机器人操作数据上进行了预训练。

如上表所示,RynnVLA-002使用离散动作达到93.3%的成功率,使用连续动作达到97.4%的成功率。

而且,RynnVLA-002在没有任何预训练的情况下,仍与在LIBERO-90或大规模真实机器人数据集上预训练的强基线模型相当。

真实世界机器人实验

研究团队使用LeRobot SO100机械臂收集了一个新的真实世界操作数据集。定义了两个抓取放置任务进行评估:

  • 将方块放入圆圈内(248个演示);

  • 将草莓放入杯中(249个演示)。

图片

▲图3 | 真实世界机器人设置。左:将方块放入圆圈内。中:将草莓放入杯中。右:带有干扰物的任务。

如下表所示,RynnVLA-002在没有预训练的情况下取得了与GR00T N1.5和π0相当的结果。

图片

▲表2 | 真实世界SO100机器人上的评估结果。报告了成功率。

而且,RynnVLA-002在杂乱环境中表现更好。

例如,在"放置方块"任务的多目标任务和干扰物场景中,RynnVLA-002的成功率超过80%。

▲与基线的对比实验。

世界模型对VLA模型的增益

  • 在LIBERO仿真基准上,训练时加入世界模型数据持续改善性能

如下表所示,离散动作的成功率从62.8%提升到67.8%,从76.6%提升到78.1%。

图片

▲表3 | 在LIBERO基准上使用离散动作的VLA模型消融研究。

连续动作也观察到类似趋势,如下表所示,成功率从91.6%提升到94.6%。

图片

▲表4 | 在LIBERO基准上使用连续动作的VLA模型消融研究。

  • 在真实世界机器人实验中,世界模型数据的收益更加显著

图片

▲图4 | LIBERO上的VLA模型可视化。任务:将奶油奶酪放入碗中。上:无世界模型。下:有世界模型。

如图所示:

没有世界模型数据训练的模型直接移向目标位置而没有成功抓取奶酪或瓶子;

与世界模型联合训练的模型在遇到失败时会不断重试抓取目标物体。

这表明世界模型数据帮助VLA模型更多地关注被操作的物体——

因为世界模型的训练目标需要准确预测物体运动,从而强化了对物体交互动态的注意力。

VLA模型对世界模型的增益

如表6所示,将 VLA 模型与世界模型数据混合训练的 RynnVLA-002,效果能达到、甚至优于纯世界模型。

图片

▲表6 | 在LIBERO验证集上的世界模型消融研究。

RynnVLA-002 用统一框架串联 VLA 与世界模型的思路,在此前成果的基础再一次精准 “补位”——

跳出两类模型 “各自为战” 的桎梏,看起来通过双向赋能实现了 1+1>2 的效果。

但,这一范式也直接暴露了当前的根本矛盾:其“思想”的深度与可靠性,依赖于数据、场景与模型三者的协同成熟度。

因此,虽然研究为我们指明了一条可行路径,但攀登的难度丝毫未减:如何突破这些瓶颈,仍是横亘在前方的硬核挑战。

路标已立,前路尚艰……

Ref

论文题目:RynnVLA-002: A Unified Vision-Language-Action and World Model

论文作者:Jun Cen, Siteng Huang, Yuqian Yuan, Kehan Li, Hangjie Yuan, Chaohui Yu, Yuming Jiang, Jiayan Guo, Xin Li, Hao Luo, Fan Wang, Deli Zhao, Hao Chen

论文地址:http://arxiv.org/abs/2511.17502

代码地址:https://github.com/alibaba-damo-academy/RynnVLA-002

「点击加入交流群」

参考现有引用,虽未直接提及使用VLM扩散模型生成一个VLA的具体步骤,但可依据相关信息进行推测。 典型VLM包含视觉编码器、驾驶视觉适配器、文本编码器大型语言模型(LLM),VLA与VLM相比多了一个基于扩散模式的轨迹规划器,且LLM是核心 [^1]。由此推测生成VLA的步骤如下: 1. **构建VLM基础**:搭建视觉编码器、驾驶视觉适配器、文本编码器大型语言模型(LLM)这四个组件。例如确定合适的视觉编码器架构来处理图像输入;使用驾驶视觉适配器(也叫Input Projector)将不同模态输入数据映射到共享语义空间;构建文本编码器处理文本信息;选择合适的LLM作为核心,可如实践中使用PaliGemma - 3B作为基础模型,它在大小性能之间有便捷权衡 [^1][^2]。 2. **添加轨迹规划器**:基于扩散模式构建轨迹规划器并集成到已构建好的VLM中,使整个模型成为VLA。 3. **数据准备与训练**:准备相关数据用于训练,对于动作专家可添加参数(如添加3亿个参数并从头开始初始化),然后对整个VLA模型进行训练微调,可参考RoboFlamingo的方式,在少量操作演示上进行微调 [^2][^4]。 ```python # 以下为简单示意代码,实际情况需根据具体模型数据进行调整 # 假设已有VLM模型类VLMModel class VLMModel: def __init__(self): # 初始化视觉编码器、驾驶视觉适配器、文本编码器LLM pass def forward(self, visual_input, text_input): # 前向传播处理 pass # 构建基于扩散模式的轨迹规划器类 class DiffusionTrajectoryPlanner: def __init__(self): # 初始化扩散模式相关参数 pass def plan_trajectory(self, input_data): # 进行轨迹规划 pass # 构建VLA模型类,继承自VLMModel并添加轨迹规划器 class VLA(VLMModel): def __init__(self): super().__init__() self.trajectory_planner = DiffusionTrajectoryPlanner() def forward(self, visual_input, text_input): # 先进行VLM的前向传播 vlm_output = super().forward(visual_input, text_input) # 再进行轨迹规划 trajectory = self.trajectory_planner.plan_trajectory(vlm_output) return trajectory # 创建VLA模型实例 vla_model = VLA() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值