DLP革新之路:AI数据安全引领新方向

随着生成式AI的广泛应用,数据安全风险日益突出,DLP厂商面临严峻挑战,但也看到了巨大的商业机会。多家公司已采取措施,如监控、过滤和访问控制,以保护企业数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

基于大语言模型的生成式AI应用正野火般蔓延,对企业和个人数据安全构成严重威胁。对于DLP(数据丢失防护)厂商来说,“大模型的大风险”不但是一次空前严峻的挑战,同时也蕴含着巨大商机,全球各路DLP厂商已经摩拳擦掌,八仙过海,纷纷推出了针对性的功能或措施。

根据IDC今年8月发布的报告,65%的企业已经部署了生成式AI,19%的企业正在积极探索,13%的企业仍在考虑。只有3%的企业不打算使用生成式AI。

随着生成式AI的快速普及,大语言模型应用的数据安全风险正在快速累积。

根据Cyberhaven的调查,企业流向ChatGPT等大语言模型应用的数据中有11%是敏感数据。仅仅在今年2月份的一周内,平均每10万员工中发生了43起敏感项目文件泄露、75起受监管个人数据泄露、70起受监管医疗数据泄露、130起客户数据泄露、119起源代码泄露和150起机密文件泄露事件。

IDC表示,企业采用生成式人工智能的最大障碍是担心敏感信息会泄露到AI厂商的大型语言模型中。许多公共AI平台的训练数据来自与用户的互动,这意味着如果用户将公司秘密上传到AI,将有可能泄露给下一个与之互动的用户。不仅仅是公共AI模型存在数据泄露风险,企业内部部署的私有大语言模型如果吸收了敏感公司数据,可能会将这些数据提供给不应该看到它们的员工。

面对大语言模型的数据安全风险,大多数企业并未因噎废食,而是选择有效的DLP工具来缓解风险。根据Netskope今年7月发布的报告,许多行业已经开始使用DLP工具来保护生成式AI。例如,在金融服务业,19%的公司使用数据丢失防护工具,在医疗行业,这一数字是21%。在科技行业,26%的企业正在使用DLP来降低大语言模型应用的风险。

根据Gartner9月份发布的一项调查,34%的组织已经在使用或正在部署DLP之类的AI安全工具,另有56%的企业表示他们正在探索此类工具。

对于DLP厂商来说,大模型的大风险不但是一次空前严峻的挑战,同时也蕴含着巨大商机,全球各路DLP厂商已经摩拳擦掌,八仙过海,纷纷推出了针对性的功能或措施,对大模型数据交互进行监控、过滤和访问控制。

以下,我们整理了13家DLP厂商的“大模型战略”:

Skyhigh:跟踪超过500个AI应用

Skyhigh Security的CASB产品包含DLP工具,这也是其SSE平台的一部分。该公司在过去的一年中火速增加了对生成式AI用例的支持。

Skyhigh在其云注册表中跟踪了超过500个不同的AI云服务提供商,自今年1月份以来增长了130%。该云注册表还可快速识别新的生成式AI应用程序及其对应的风险等级。

Skyhigh还与许多添加了生成式AI功能的企业应用程序进行了直接API集

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知白守黑1024

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值