在Black Hat USA 2024,一位研究人员披露了微软AI助手Copilot存在的多个安全隐患,攻击者能够借此漏洞窃取敏感数据和企业凭证。

微软声称,通过将任务委派给AI助手Copilot,每天可以节省数百小时的工作时间。Copilot是微软在2023年2月推出的AI驱动助手,它允许企业构建和训练自己的AI助手,使得微软应用程序中的任务自动化。Copilot基于大型语言模型,能够接受文本、图像和语音输入,并在新的Windows 11 PC和Copilot PC上运行。
然而,使用AI技术始终伴随着风险。随着关于大型科技公司如何处理用户数据的讨论愈发激烈,微软坚称Copilot提供企业级安全保护,确保用户数据不会被用于AI模型的训练。
尽管微软做出了这样的承诺,但网络安全研究员Micahel Bargury却在Black Hat USA 2024上展示了Copilot Studio的机器人如何轻松地绕过现有防护措施,窃取企业敏感数据。
泄露不仅可能,而且很可能
根据研究人员的说法,不安全的默认设置、过度宽松的插件和过于乐观的设计思维,使得数据泄露变得“很可能”。因为用户创建的大多数 Copilot Studio 机器人都不安全,很容易在网络上被发现,所以必须将它们作为应用程序安全计划的一部分,以确保敏感数据不会泄露。
而且,Copilot 的界面和系统并不能防止错误和恶意攻击。
为此,Bargury创建了一个名为CopilotHunter的工具,它可以扫描公开可访问的Copilot,并利用模糊测试和生成性AI技术来滥用它们,以提取敏感的企业数据。研究结果显示,针对数千个可访问的机器人进行攻击,揭示了恶意行为者可能利用的敏感数据和企业凭证。
Bargury表示,攻击者可以远程控制你与Copilot的交互,使Copil

最低0.47元/天 解锁文章
306

被折叠的 条评论
为什么被折叠?



