一半的人工智能开源项目引用了有bug的包

EndorLabs报告显示,多数开源AI项目引用了易受攻击的依赖项,ChatGPTAPI在短时间内被广泛采用,但安全问题突出。超过一半应用使用安全敏感API,且大型语言模型在检测恶意代码时表现不足,可能导致误报和过度修复。组织需要更好地管理开源依赖的安全风险并提升自动化修复能力。

根据Endor Labs的数据,开源在人工智能技术堆栈中发挥着越来越大的作用,但大多数(52%)项目在其清单文件中引用了已知的易受攻击的依赖项。

这家安全供应商最新的依赖管理状态报告称,在发布后的短短五个月里,ChatGPT的API被用于900个npm和PyPI包中,涉及不同的问题领域,其中70%是全新的包。

然而,Endor Labs警告说,对于任何开源项目,必须管理与脆弱依赖项相关的安全风险。

Osterman Research首席分析师迈克尔•桑普森(Michael Sampson)表示:“看到最新一代的人工智能api和平台抓住了公众的想象力,这是一件美妙的事情,但这份来自Endor Labs的报告提供了生动的证据,证明安全并没有跟上步伐。”

更多地采用能够更快地识别和自动修复潜在弱点的技术,将在这一关键领域产生巨大影响。

不幸的是,组织似乎不仅低估了开源依赖中的AI api的风险,而且低估了一般的安全敏感api的风险。

报告称,超过一半(55%)的应用程序在其代码库中调用了安全敏感的api,但当包含依赖项时,这一比例上升到95%。

Endor Labs还警告说,像ChatGPT这样的大型语言模型(LLM)技术在评估可疑代码片段的恶意软件潜力方面表现不佳。它发现OpenAI GPT 3.5的准确率仅为3.4%,而Vertex AI text-bison的准确率略高,为7.9%。

报告指出:“这两种模型都产生了大量的误报,这将需要人工审查工作,并阻止自动通知到各自的包存储库以触发包删除。尽管如此,模式似乎确实在改进。这些发现说明了在安全敏感的用例中使用法学硕士的困难。它们当然可以帮助手动审查员,但即使评估准确率可以提高到95%甚至99%,也不足以实现自主决策。”

此外,该报告指出,开发人员可能会浪费时间修复代码中的漏洞,而这些漏洞甚至没有在他们的应用程序中使用。

它声称71%的典型Java应用程序代码来自开源组件,但应用程序只使用了12%的导入代码。

报告称:“未使用代码中的漏洞很少被利用,组织可以通过对整个应用程序中哪些代码可访问的可靠洞察来消除或取消高达60%的修复工作的优先级。”

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值