软件供应链新威胁:AI幻觉催生“Slopsquatting“攻击

AI, Hallucination, Robot, fake, real

网络安全研究人员警告称,AI生成的虚假软件包名称可能被攻击者利用,形成新型软件供应链攻击"Slopsquatting"。

美国德克萨斯大学圣安东尼奥分校、弗吉尼亚理工大学和俄克拉荷马大学的研究团队发现,当开发者使用生成式AI(如大语言模型LLMs)编写代码时,AI可能会推荐不存在的软件包——这种现象被称为"包幻觉"(package hallucination)。攻击者可趁机注册这些虚构名称来传播恶意代码。

攻击原理:AI幻觉成为攻击跳板

Python软件基金会(PSF)安全开发者Seth Larson将这种攻击命名为"Slopsquatting",因其与传统的"typosquatting"(域名抢注)攻击类似。但不同于依赖用户拼写错误的传统方式,Slopsquatting利用的是AI模型的输出错误。

研究显示,这些AI虚构的软件包名称往往具有高度可信性且重复出现——约38%的幻觉包名与真实包名相似,仅13%属于简单拼写错误。这使得开发者更容易不加验证就直接使用。

惊人数据:五分之一AI推荐包实为伪造

通过对16个代码生成模型的测试发现:

  • 平均20%的AI推荐软件包属于伪造
  • 开源模型(如DeepSeek、WizardCoder)幻觉率高达21.7%
  • 商业模型表现较好,GPT-4 Turbo仅3.59%的幻觉率
  • CodeLlama表现最差,超过三分之一推荐存在错误

特别值得警惕的是,在Python和JavaScript等严重依赖中央包仓库的编程生态中,这种威胁尤为严重。

攻击可行性:幻觉包名具有高度可复现性

实验重复执行500次曾触发包幻觉的提示词,结果显示:

  • 43%的案例中,相同幻觉连续出现10次
  • 58%的幻觉会在多次测试中重复出现
  • 这种可预测性使攻击者能精准布局恶意包

研究人员指出,当前AI模型缺乏足够的安全测试是主因。虽然尚未发现实际攻击案例,但该技术已具备现实威胁的所有要素。开发社区需提高警惕,对AI生成的代码建议保持审慎态度。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值