谷歌云的AI保护:AI资产保护的解决方案.

谷歌云最近宣布了AI保护,这是一个全面的解决方案,用于保护与生成式人工智能相关的风险和威胁。

公司表示,AI保护通过发现和评估其AI资产的潜在漏洞,帮助团队有效管理AI风险。此外,通过实施控制和政策来保护AI资产,它还增强了安全性。最后,通过强大的检测和响应能力,它使主动威胁管理成为可能,确保对AI系统相关风险的全面管理。

该解决方案与Google Security Command Center (SCC) 集成,SCC 现在可以为用户在一个中心视图中展示其 IT 状态,并在其他云风险的背景下管理 AI 风险。

(来源: Google Cloud News 博客文章)

公司将这一解决方案带给客户,这是在《网络安全预测报告》中确定的关键发现之一:

攻击者使用人工智能 (AI):威胁行为者将越来越多地使用 AI 进行复杂的网络钓鱼、语音钓鱼和社会工程学攻击。他们还将利用深度伪造进行身份盗窃、欺诈和绕过安全措施。

此外,Mahmoud Rabie,一位主要解决方案顾问,在 LinkedIn 上发布了为什么 AI 保护很重要:

AI模型越来越多地应用于关键应用,这使它们成为网络威胁的有吸引力的目标。诸如数据投毒、对抗攻击和模型泄露等安全风险带来了重大挑战。

公司认为有效的AI风险管理需要了解AI资产及其关系,并识别和保护AI应用程序中的敏感数据。AI保护工具自动化数据发现并使用虚拟红队来检测漏洞,提供增强安全状况的修复建议。

除了理解AI资产,保护它们同样重要。为了保护AI资产,AI Protection利用Model Armor,这是一个完全托管的服务,通过筛查 prompts 和 responses 的安全性和安全性风险,增强AI应用的安全性和可靠性。

(来源: Google Cloud News 博客文章)

在Medium上的一篇博客文章中,Sasha Heyer总结道关于Model Armor:

Model Armor 是增强您的生成式人工智能应用安全性的绝佳选择。它有助于防止提示注入、数据泄露和恶意内容。然而,它缺乏与现有Vertex AI生成式人工智能堆栈的直接集成,这意味着开发人员必须手动将其整合到其工作流程中。

最后,AI Protection利用先进的安全情报和研究来自Google和Mandiant,有效保护客户的AI系统。Security Command Center的检测器在识别与AI工作负载相关的初始访问尝试、权限提升和持久化努力方面发挥着关键作用。公司致力于保持在安全挑战最前沿,即将为AI Protection引入新的检测器,旨在识别和管理运行时威胁,包括基础模型劫持。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值