OpenVLA 是一种具有 70 亿参数的开源视觉-语言-动作模型(
Vision-Language-Action, VLA),旨在将视觉感知、语言理解和机器人动作控制无缝结合。其核心是一个预训练的视觉条件语言模型(Vision-Conditioned Language Model),通过在Open-X Embodiment数据集上进行微调,该数据集包含了 970k 条多样化的机器人操作轨迹,涵盖了广泛的场景和任务。OpenVLA 的架构和训练方法使其在机器人操作和多模态任务中展现出强大的潜力。
与 Octo 等先前的工作不同,OpenVLA 采用了一种更为端到端的方法。Octo 等模型通常由预训练的组件(如语言嵌入或视觉编码器)组成,并与从头初始化的附加模型组件结合,在策略训练过程中学习如何将这些组件“拼接”在一起。相比之下,OpenVLA 直接对视觉-语言模型(VLM)进行微调,通过将机器人动作视为语言模型词汇中的 token 来生成机器人动作。这种方法不仅简化了模型架构,还增强了多模态任务中的一致性和泛化能力。

最近的 VLM 架构一般涵盖:
- 一个视觉编码器,将图像输入映射为多个“图像块嵌入”
- 一个投影器,将视觉编码器的输出嵌入映射到语言模型的输入空间
- 一个大型语言模型LLM骨干
作者将机器人


最低0.47元/天 解锁文章
786

被折叠的 条评论
为什么被折叠?



