AI风险治理“实战”落地:CISO如何将GenAI纳入GRC管控体系

摘要: 随着GenAI和自主AI在企业中的爆炸式增长,“影子AI”的风险正在扩大。本文深入探讨了企业为何必须将AI风险纳入现有的治理、风险与合规(GRC)体系,并结合多位行业CISO的实战经验,提供了一套从战略到战术的AI风险治理落地指南,包括如何调整现有框架、制定治理政策以及利用“红绿灯”系统和“模型卡片”等创新工具,帮助CISO在拥抱AI创新的同时,筑牢企业安全防线。


一、 新挑战:当“颠覆性”的AI遇上传统的GRC

“AI是一种极具颠覆性的技术,它并非可以简单归类并定义为‘这就是AI’的事物。” 国际信息系统审计与控制协会(ISACA)董事会成员杰米·诺顿(Jamie Norton)一语道破了问题的核心。

AI的风险难以量化,但其带来的威胁却日益清晰。根据Check Point的《2025年AI安全报告》,企业设备向GenAI服务发送的提示词中,每80个就有1个(1.25%)存在敏感数据泄露的高风险。

CISO(首席信息安全官)正面临前所未有的两难处境:一方面要满足业务部门对AI创新的渴求,另一方面又要防止“影子AI”(未经批准和监控的AI应用)泛滥成灾,成为企业安全的巨大隐患。

传统的GRC框架,诞生于21世纪初,最初专注于规则和清单式的合规。虽然如今已演变为更广泛的风险管理方法,但面对AI这种概率性、高自主性、快速演变的新物种,现有的GRC计划显然需要重新审视和升级。联想的报告显示,仅有24%的企业全面实施了AI GRC政策,这道巨大的鸿沟亟待填补。

二、 拒绝重造轮子:调整现有框架,拥抱AI风险

好消息是,我们无需从零开始。安全领导者可以将AI风险映射到现有成熟的风险管理框架上,进行调整和扩展。

Check Point的AI技术副总裁丹·卡尔帕蒂(Dan Karpati)建议,应将AI风险视为独立的类别,并融入GRC的四大支柱中:

  1. 企业风险管理 (ERM): 明确定义企业的AI风险偏好,并成立专门的AI治理委员会。

  2. 模型风险管理 (MRM): 持续监控模型的性能漂移、偏见,并进行对抗性测试。

  3. 运营风险管理 (ORM): 制定AI系统故障的应急预案,并对人工监督角色进行培训。

  4. IT风险管理 (ITRM): 实施定期审计、AI系统合规性检查,确保治理框架与业务目标对齐。

实战框架参考:

  • NIST AI风险管理框架 (AI RMF): 提供了识别、评估和管理AI风险的系统方法。

  • COSO与COBIT: 可借鉴其治理、控制和风险对齐的核心原则,覆盖AI的特性。

  • ISO/IEC 42001: 这是一个新兴的AI管理体系标准,为AI生命周期嵌入治理和风险实践提供了结构化框架。

  • FAIR (信息风险因素分析): 可以用来量化AI相关事件的潜在财务损失,将技术风险转化为业务领导能看懂的语言。

通过调整这些框架,CISO可以将AI风险的讨论提升到战略层面,使其与企业的整体风险承受能力保持一致。

三、 CISO的实战工具箱:从战略到战术的落地方法

理论框架需要具体的战术来执行。以下是来自一线CISO的宝贵建议:

1. 战略与战术并举:分层管理AI工具

ISACA的杰米·诺顿建议,应根据AI工具的影响力,采取不同的管理策略:

  • 战略方法 (适用于“重磅”AI): 对于像微软Copilot、ChatGPT这样可能带来重大变革的大型AI平台,应设立内部的AI监督论坛或委员会,进行集中的、深入的风险评估和治理。

  • 战术方法 (适用于“小型”AI): 对于嵌入在各类SaaS平台或产品中的小型、零散的AI功能,可以通过更轻量级的流程进行管理。例如:

    • 安全设计流程 (Secure by Design): 在采购或开发之初就介入。

    • IT变更管理流程: 将AI工具的引入纳入变更审批。

    • 影子AI发现计划: 主动扫描和识别网络中未经授权的AI使用。

    • 基于风险的AI库存和分类: 建立AI资产清单,并根据风险级别进行分类。

诺顿强调:“我们的目标不是把流程搞得冗长复杂,让业务部门寸步难行。而是一个相对轻量级的过程,快速应用风险考量,决定是放行还是阻止。”

2. 定义游戏规则:用“红绿灯”系统和“模型卡片”赋能全员

AuditBoard的CISO里奇·马库斯(Rich Marcus)分享了一套非常实用的内部治理工具,核心是协作和透明

  • 建立“红绿灯”系统:

    • 绿色 (Green): 已经过安全团队审查和批准的AI工具,员工可以放心使用。

    • 黄色 (Yellow): 需要进行额外评估或仅限于特定使用场景的工具。员工使用前需申请。

    • 红色 (Red): 缺乏必要安全保障、明确禁止在企业内部使用的工具。

这个系统为员工提供了清晰的行为准则,也为安全团队提供了检测和执行的依据,更重要的是,它以协作而非对抗的方式促进了创新。

  • 制定AI工具选择标准: 在评估工具之前,CISO应与法务、合规等部门合作,提前定义一套指导原则。例如:

    • 工具是否能保护公司的专有数据?

    • 我们是否保留所有输入和输出数据的所有权?

    • 数据是否会被用于训练供应商的公共模型?

  • 创建“模型卡片” (Model Cards): 对于每个评估的AI使用案例,马库斯和他的团队会创建一个“模型卡片”——一份简明扼要的一页纸文档,概述以下内容:

    • 系统架构: 输入、输出、数据流。

    • 预期用途: 解决什么业务问题。

    • 数据训练: 系统是如何使用数据进行训练的。

    • 第三方依赖: 是否涉及外部服务。

“模型卡片”让风险分析师能快速评估该用例是否违反隐私法规、安全最佳实践或新兴的监管要求。当评估了数十个这样的用例后,就可以识别出共性风险,从而制定出更具战略性的应对计划。

四、 CISO角色的演进:从“守门员”到“风险顾问”

在AI时代,CISO的角色不再是简单地说“行”或“不行”。正如诺顿所说:“我们更多的是提供做某件事所涉及的风险可见性,然后让组织和高级管理人员围绕这些风险做出决策。”

成功的AI风险治理关键在于协作。CISO需要走出去,与业务部门、法务、首席风险官等建立广泛的信任和认同,传达“我们共同面对挑战,而不是来拖后腿的”信息。

结语

AI的浪潮势不可挡。CISO不能因为风险就阻碍创新,但也不能对风险视而不见,导致灾难性的数据泄露。通过将AI融入GRC框架,采用分层管理策略,并利用“红绿灯”系统、“模型卡片”等实用工具,CISO可以为企业的AI之旅提供关键的导航,在加速创新的同时,确保航行安全。这不仅是技术的挑战,更是治理智慧的体现。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值