How Secure Are Large Language Models (LLMs) for Navigation in Urban Environments?

本文关注基于大型语言模型(LLM)的导航系统在城市环境中的安全性问题,提出导航提示后缀(NPS)攻击可以操纵LLM导航,导致错误决策。实验表明,这种攻击具有可推广性和可转移性,强调了增强导航系统安全性的紧迫性。为应对这一挑战,提出了导航提示工程(NPE)防御策略,但仍需进一步研究以发展更强大的防御方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《How Secure Are Large Language Models (LLMs) for Navigation in Urban Environments?》的翻译。

城市环境中导航的大型语言模型(LLM)的安全性如何?

摘要

在机器人和自动化领域,基于大型语言模型(LLM)的导航系统最近表现出了令人印象深刻的性能。然而,这些系统的安全方面受到的关注相对较少。本文率先探索了城市户外环境中基于LLM的导航模型的漏洞,鉴于该技术在自动驾驶、物流和应急服务中的广泛应用,这是一个关键领域。具体来说,我们介绍了一种新的导航提示后缀(NPS)攻击,该攻击通过将梯度派生的后缀附加到原始导航提示上来操纵基于LLM的导航模型,从而导致错误的操作。我们在基于LLM的导航模型上进行了全面的实验,该导航模型使用各种LLM进行推理。我们的结果来源于在小样本学习和微调配置下的Touchdown和Map2Seq街景数据集,表明在面对白盒和黑盒攻击时,三个指标的性能显著下降。这些结果突出了NPS攻击的可推广性和可转移性,强调了增强基于LLM的导航系统安全性的必要性。作为初步对策,我们提出了导航提示工程(NPE)防御策略,重点关注与导航相关的关键词,以减少对抗性后缀的影响。虽然初步发现表明,这一战略提高了导航安全,但更广泛的研究界仍然迫切需要开发更强大的防御方法,以有效应对这些系统面临的现实

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值