SkillDiffuser:通过在扩散策略中引入技能抽象实现可理解的层次化任务规划

欢迎大家关注我们近期发表在CVPR2024上的工作《SkillDiffuser: Interpretable Hierarchical Planning via Skill Abstractions in Diffusion-Based Task Execution》[1]

项目主页: 

skilldiffuser.github.io

论文链接:

https://arxiv.org/abs/2312.11598

核心亮点

01直接根据人类复杂语言指令生成轨迹 

02自动化从数据集中学习可解释的技能 

03跨平台的技能泛化

04直接使用图像输入

这篇文章是我们在AIGC赋能智能机器人控制系列工作中在自动技能学习和可解释性上的进一步扩展。

我们先前的工作[2][3]已经展示了Diffusion Model 在Robotics Learning尤其是Manipulation任务上的卓越性能。但是对于语言指令输入的任务,人类自然语言的高度抽象以及时常有包含多个子任务的复合语义,给基于条件扩散模型的策略带来了很大的困难。先前的工作如Decision Diffuser[4]预定义了一个技能库将复杂语义分解到这个技能库中的某个技能来应对这个挑战。但是它就受限于一个预定义的技能库,以及难以捕捉复合语义的步骤间依赖关系。另外,相较于先前的工作使用状态感知,使用图像输入的感知,是一种更为自然且更具挑战性的情景。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值