SpatialVLA 论文
将 VLA 赋予三维空间理解,面临两个问题:1)不同机械构型的观测数据缺乏三维对齐性(摄像头传感器不同且安装位置不同 -> 得到的三维空间不同);2)异构机器人的自由度、运动控制等不同 -> 动作空间不同。SpatialVLA 通过 Ego3D 位置编码(基于自我中心相机坐标系)以及自适应动作网格统一各个机器人动作空间,通过自回归预测(chunk=4)。

Ego3D Position Encoding
先用 SigLIP 提取视觉-语言对齐的 2D 语义特征 X ∈ R d × h × w \boldsymbol{X} \in R^{d×h×w} X∈Rd×h×w,然后采取 ZoeDepth 估计深度图 D,通过相机内参反投影 π − 1 \pi^{-1} π−1 得到像素在 egocentric 坐标系中的 P ∈ R 3 × h × w \boldsymbol{P} \in R^{3×h×w} P∈R3×h×w,然后通过正弦函数与可学习的 MLP 得到最终位置编码:
O 3 d = X + P ′ = X + M L P ( γ ( P ) ) \boldsymbol{O}_{3d}=\boldsymbol{X}+\boldsymbol{P}^{'}=\boldsymbol{X}+MLP(\gamma(\boldsymbol{P})) O3d=X+P′=X+MLP(γ(P))
Adaptive Action Grids
对于单臂机器人,定义动作空间: a = { a t r a n s , a r o t , a g r i p } a=\{a_{trans},a_{rot},a_{grip}\} a={ atrans,arot,agrip} 其中平移动作 a t r a n s = { x , y , z } = { ϕ

最低0.47元/天 解锁文章
589

被折叠的 条评论
为什么被折叠?



