ICML-2024 | Voronoi图助力具身导航!VoroNav:基于大模型和Voronoi图的零样本目标导航

  • 论文链接:VoroNav: Voronoi-based Zero-shot Object Navigation with Large Language Model (https://openreview.net/pdf?id=Va7mhTVy5s)

  • 项目主页:https://voro-nav.github.io/

主要贡献

  • Voronoi图生成:引入了基于Voronoi的场景图生成方法,用于零样本目标对象导航(Zero-Shot Object Navigation,ZSON),旨在选择提供丰富观测数据的路径点,以促进后续的规划过程。

  • 创新的提示策略:设计了场景表示提示策略,结合路径和远景描述,为LLM提供全面的场景描述,以便分析和评估。

  • 决策机制:提出了一种新的决策机制,需要在探索、路径效率和常识倾向之间进行权衡,以实现合理的行动。

  • 新的SOAT:在ZSON任务上实现了SOAT结果,在代表性的数据集(如HM3D和HSSD)上超越了基准方法。

研究背景

研究问题

论文主要解决的问题是如何让家庭机器人实现零样本目标对象导航(ZSON),即让智能体能够在没有预训练的情况下,熟练地遍历不熟悉的环境并定位到全新类别的物体。

研究难点

该问题的研究难点包括:

  • 现有方法在探索效率和路径规划上的不足,尤其是在处理全新目标物体的导航时;

  • 如何有效地结合语义信息和拓扑信息来提高导航的准确性和效率。

相关工作

  1. 零样本目标对象导航(ZSON)
  • 基于图像方法:直接将自拍图像和目标对象指令映射到嵌入空间,并使用训练过的策略网络以端到端的方式预测后续动作。这些方法具有可移植性,不需要设计复杂框架,但在实践中表现不如基于地图的方法。

  • 基于地图方法:通常分层结构,明确维护和链接感知、规划和控制模块。它们通常结合零样本对象检测器来识别目标对象,并利用对象关系的先验知识或LLM进行决策。然而,这些方法主要关注前沿边界点的环境,忽略了机器人导航到前沿边界的中间过程。

  1. 用于导航的场景表示
  • 基于前沿边界的方法:将场景的语义信息嵌入到前沿点中,以建模探索边界的场景情况,实现探索和语义动机之间的权衡。然而,这些方法通常采用固定间隔的决策策略,导致在观测信息增益稀缺时进行中期决策。

  • 基于图的方法:直接从RGB-D图像预测路径点,将环境表示为拓扑图,整合地理和语义信息以进行路径点导航。这些方法需要从类似场景收集房屋结构作为训练集,生成的路径点可能会落入障碍物中,导致导航失败。

  1. LLM引导的导航
  • LLM因其强大的信息处理和生成能力而成为导航中先验知识推理的新方式。研究展示了LLM在导航中的应用,例如通过预测目标对象的相关性来推断目标位置,或通过生成未探索区域的集群来辅助目标对象定位。

  • 论文提出了一种新的提示生成技术,通过整合路径和远景描述来指导LLM进行零样本目标对象导航,提供了更全面的信息供LLM进行推理和规划。

研究方法

论文提出了VoroNav,一种基于Voronoi图的零样本目标对象导航框架。该方法包括三个主要模块:语义映射模块、全局决策模块和局部策略模块。

任务定义

零样本目标对象导航(ZSON)任务要求智能体能够在没有针对特定类别的预先训练的情况下,导航到一个全新类别的目标对象。

智能体从指定的起始点开始,根据观察到的RGB-D图像和实时位姿进行决策,目标是找到目标对象并到达距离目标小于0.1米的距离。

智能体到达目标并执行“停止”命令时任务定义为成功,否则任务失败。

语义映射模块

通过处理RGB-D图像和位姿来维护一个二维语义地图。语义地图是一个的网格,包含个类别图、一个障碍物图和一个已探索图。

通过深度信息和位姿,3D点云被映射到语义地图中,以表示可行区域、障碍物区域和已探索区域。

全局决策模块

  • 通过生成广义Voronoi图(GVD)来提取无障碍空间的中轴路径,并将其转换为Reduced Voronoi Graph(RVG)。节点被分类为智能体节点、邻居节点、探索节点和普通节点。路径描述通过Wavefront Propagation方法生成,并创建文本描述来体现每条路径的场景。远景描述通过捕捉邻居节点的RGB图像生成,以补充语义信息。

  • 使用LLM进行决策,结合路径和远景描述生成提示,以帮助LLM理解场景并做出决策。通过考虑探索目标、路径效率和常识倾向,选择期望最高的邻居节点作为中期目标。

局部策略模块

  • 使用快速行进法(Fast Marching Method)从当前位置到目标位置找到最短路径,并选择最近的坐标作为导航目标。一旦到达Voronoi节点,智能体会旋转并重复中期目标的选取过程。

实验设计

数据集

  • HM3D数据集提供了20个建筑物的高质量重建模型,包含2K个验证集;

  • HSSD数据集提供了40个高质量合成场景,包含1.2K个验证集。

评估指标

采用成功率(Success)和成功加权路径长度(SPL)作为评估指标。

  • 成功率表示成功导航的集数占总集数的百分比,

  • SPL通过实际路径长度与最优路径长度的比值(加权成功率)来量化导航效率。

基线方法

  • 随机探索(Random Exploration):智能体随机采样未探索区域的点进行导航。

  • 前沿(Frontier):选择未探索区域的最近边界点作为中期目标。

  • Voronoi:类似于VoroNav,但不考虑语义奖励。

  • L3MVN:利用LLM通过评估由前沿点聚类的区域来选择最佳的中期路径点。

  • Pixel-Nav:基于图像的零样本导航,分析全景图像并利用LLM确定探索的最优像素。

  • ESC:利用LLM从前沿点确定中期目标,进行探索。

结果与分析

与最先进方法的对比

VoroNav在HM3D和HSSD数据集上均优于现有的最先进方法,成功率和SPL均有显著提升。

消融实验

通过消融实验,验证了路径描述和远视描述对VoroNav性能的提升作用。

结果表明,VoroNav在所有消融模型中表现最佳,集成路径和远视描述的模型在导航性能和LLM推理能力上均优于单一描述模型。

规划效果分析

引入了两个新的规划效果评估指标:碰撞避免成功率(SCA)和探索区域成功率(SEA)。

结果显示,VoroNav在SCA和SEA指标上均显著优于前沿探索方法,表明其在避障和低成本探索方面具有优势。

不同LLM的影响

在不同LLM模型上的实验表明,使用更强的LLM模型(如Gemini-pro、GPT-3.5和GPT-4)可以进一步提升VoroNav的导航性能。

时间消耗统计

记录了框架各部分的时间消耗,发现局部步骤的时间消耗对实时性能影响最大。

总体结论

论文提出的VoroNav框架通过引入基于Voronoi图的语义探索和LLM辅助决策,显著提高了零样本目标的性能。

该方法克服了传统端到端和基于地图方法的局限性,通过生成信息丰富的导航点和创新的文本信息融合表示环境,实现了更策略化的导航和高效的探索。

VoroNav为ZSON任务设定了新的基准,并为智能机器人系统与环境的交互开辟了新的途径。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值