论文阅读笔记——SpatialVLA: Exploring Spatial Representations for Visual-Language-Action Model

SpatialVLA 论文
将 VLA 赋予三维空间理解,面临两个问题:1)不同机械构型的观测数据缺乏三维对齐性(摄像头传感器不同且安装位置不同 -> 得到的三维空间不同);2)异构机器人的自由度、运动控制等不同 -> 动作空间不同。SpatialVLA 通过 Ego3D 位置编码(基于自我中心相机坐标系)以及自适应动作网格统一各个机器人动作空间,通过自回归预测(chunk=4)。
在这里插入图片描述

Ego3D Position Encoding

先用 SigLIP 提取视觉-语言对齐的 2D 语义特征 X ∈ R d × h × w \boldsymbol{X} \in R^{d×h×w} XRd×h×w,然后采取 ZoeDepth 估计深度图 D,通过相机内参反投影 π − 1 \pi^{-1} π1 得到像素在 egocentric 坐标系中的 P ∈ R 3 × h × w \boldsymbol{P} \in R^{3×h×w} PR3×h×w,然后通过正弦函数与可学习的 MLP 得到最终位置编码:
O 3 d = X + P ′ = X + M L P ( γ ( P ) ) \boldsymbol{O}_{3d}=\boldsymbol{X}+\boldsymbol{P}^{'}=\boldsymbol{X}+MLP(\gamma(\boldsymbol{P})) O3d=X+P=X+MLP(γ(P))

Adaptive Action Grids

对于单臂机器人,定义动作空间: a = { a t r a n s , a r o t , a g r i p } a=\{a_{trans},a_{rot},a_{grip}\} a={ atrans,arot,agrip} 其中平移动作 a t r a n s = { x , y , z } = { ϕ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值