基于大语言模型的生成式AI应用正野火般蔓延,对企业和个人数据安全构成严重威胁。对于DLP(数据丢失防护)厂商来说,“大模型的大风险”不但是一次空前严峻的挑战,同时也蕴含着巨大商机,全球各路DLP厂商已经摩拳擦掌,八仙过海,纷纷推出了针对性的功能或措施。
根据IDC今年8月发布的报告,65%的企业已经部署了生成式AI,19%的企业正在积极探索,13%的企业仍在考虑。只有3%的企业不打算使用生成式AI。
随着生成式AI的快速普及,大语言模型应用的数据安全风险正在快速累积。
根据Cyberhaven的调查,企业流向ChatGPT等大语言模型应用的数据中有11%是敏感数据。仅仅在今年2月份的一周内,平均每10万员工中发生了43起敏感项目文件泄露、75起受监管个人数据泄露、70起受监管医疗数据泄露、130起客户数据泄露、119起源代码泄露和150起机密文件泄露事件。
IDC表示,企业采用生成式人工智能的最大障碍是担心敏感信息会泄露到AI厂商的大型语言模型中。许多公共AI平台的训练数据来自与用户的互动,这意味着如果用户将公司秘密上传到AI,将有可能泄露给下一个与之互动的用户。不仅仅是公共AI模型存在数据泄露风险,企业内部部署的私有大语言模型如果吸收了敏感公司数据,可能会将这些数据提供给不应该看到它们的员工。
面对大语言模型的数据安全风险,大多数企业并未因噎废食,而是选择有效的DLP工具来缓解风险。根据Netskope今年7月发布的报告,许多行业已经开始使用DLP工具来保护生成式AI。例如,在金融服务业,19%的公司使用数据丢失防护工具,在医疗行业,这一数字是21%。在科技行业,26%的企业正在使用DLP来降低大语言模型应用的风险。
根据Gartner9月份发布的一项调查,34%的组织已经在使用或正在部署DLP之类的AI安全工具,另有56%的企业表示他们正在探索此类工具。
对于DLP厂商来说,大模型的大风险不但是一次空前严峻的挑战,同时也蕴含着巨大商机,全球各路DLP厂商已经摩拳擦掌,八仙过海,纷纷推出了针对性的功能或措施,对大模型数据交互进行监控、过滤和访问控制。
以下,我们整理了13家DLP厂商的“大模型战略”:
Skyhigh:跟踪超过500个AI应用
Skyhigh Security的CASB产品包含DLP工具,这也是其SSE平台的一部分。该公司在过去的一年中火速增加了对生成式AI用例的支持。
Skyhigh在其云注册表中跟踪了超过500个不同的AI云服务提供商,自今年1月份以来增长了130%。该云注册表还可快速识别新的生成式AI应用程序及其对应的风险等级。
Skyhigh还与许多添加了生成式AI功能的企业应用程序进行了直接API集