当前位置: 首页 > news >正文

AI风险治理“实战”落地:CISO如何将GenAI纳入GRC管控体系

摘要: 随着GenAI和自主AI在企业中的爆炸式增长,“影子AI”的风险正在扩大。本文深入探讨了企业为何必须将AI风险纳入现有的治理、风险与合规(GRC)体系,并结合多位行业CISO的实战经验,提供了一套从战略到战术的AI风险治理落地指南,包括如何调整现有框架、制定治理政策以及利用“红绿灯”系统和“模型卡片”等创新工具,帮助CISO在拥抱AI创新的同时,筑牢企业安全防线。


一、 新挑战:当“颠覆性”的AI遇上传统的GRC

“AI是一种极具颠覆性的技术,它并非可以简单归类并定义为‘这就是AI’的事物。” 国际信息系统审计与控制协会(ISACA)董事会成员杰米·诺顿(Jamie Norton)一语道破了问题的核心。

AI的风险难以量化,但其带来的威胁却日益清晰。根据Check Point的《2025年AI安全报告》,企业设备向GenAI服务发送的提示词中,每80个就有1个(1.25%)存在敏感数据泄露的高风险。

CISO(首席信息安全官)正面临前所未有的两难处境:一方面要满足业务部门对AI创新的渴求,另一方面又要防止“影子AI”(未经批准和监控的AI应用)泛滥成灾,成为企业安全的巨大隐患。

传统的GRC框架,诞生于21世纪初,最初专注于规则和清单式的合规。虽然如今已演变为更广泛的风险管理方法,但面对AI这种概率性、高自主性、快速演变的新物种,现有的GRC计划显然需要重新审视和升级。联想的报告显示,仅有24%的企业全面实施了AI GRC政策,这道巨大的鸿沟亟待填补。

二、 拒绝重造轮子:调整现有框架,拥抱AI风险

好消息是,我们无需从零开始。安全领导者可以将AI风险映射到现有成熟的风险管理框架上,进行调整和扩展。

Check Point的AI技术副总裁丹·卡尔帕蒂(Dan Karpati)建议,应将AI风险视为独立的类别,并融入GRC的四大支柱中:

  1. 企业风险管理 (ERM): 明确定义企业的AI风险偏好,并成立专门的AI治理委员会。

  2. 模型风险管理 (MRM): 持续监控模型的性能漂移、偏见,并进行对抗性测试。

  3. 运营风险管理 (ORM): 制定AI系统故障的应急预案,并对人工监督角色进行培训。

  4. IT风险管理 (ITRM): 实施定期审计、AI系统合规性检查,确保治理框架与业务目标对齐。

实战框架参考:

  • NIST AI风险管理框架 (AI RMF): 提供了识别、评估和管理AI风险的系统方法。

  • COSO与COBIT: 可借鉴其治理、控制和风险对齐的核心原则,覆盖AI的特性。

  • ISO/IEC 42001: 这是一个新兴的AI管理体系标准,为AI生命周期嵌入治理和风险实践提供了结构化框架。

  • FAIR (信息风险因素分析): 可以用来量化AI相关事件的潜在财务损失,将技术风险转化为业务领导能看懂的语言。

通过调整这些框架,CISO可以将AI风险的讨论提升到战略层面,使其与企业的整体风险承受能力保持一致。

三、 CISO的实战工具箱:从战略到战术的落地方法

理论框架需要具体的战术来执行。以下是来自一线CISO的宝贵建议:

1. 战略与战术并举:分层管理AI工具

ISACA的杰米·诺顿建议,应根据AI工具的影响力,采取不同的管理策略:

  • 战略方法 (适用于“重磅”AI): 对于像微软Copilot、ChatGPT这样可能带来重大变革的大型AI平台,应设立内部的AI监督论坛或委员会,进行集中的、深入的风险评估和治理。

  • 战术方法 (适用于“小型”AI): 对于嵌入在各类SaaS平台或产品中的小型、零散的AI功能,可以通过更轻量级的流程进行管理。例如:

    • 安全设计流程 (Secure by Design): 在采购或开发之初就介入。

    • IT变更管理流程: 将AI工具的引入纳入变更审批。

    • 影子AI发现计划: 主动扫描和识别网络中未经授权的AI使用。

    • 基于风险的AI库存和分类: 建立AI资产清单,并根据风险级别进行分类。

诺顿强调:“我们的目标不是把流程搞得冗长复杂,让业务部门寸步难行。而是一个相对轻量级的过程,快速应用风险考量,决定是放行还是阻止。”

2. 定义游戏规则:用“红绿灯”系统和“模型卡片”赋能全员

AuditBoard的CISO里奇·马库斯(Rich Marcus)分享了一套非常实用的内部治理工具,核心是协作和透明

  • 建立“红绿灯”系统:

    • 绿色 (Green): 已经过安全团队审查和批准的AI工具,员工可以放心使用。

    • 黄色 (Yellow): 需要进行额外评估或仅限于特定使用场景的工具。员工使用前需申请。

    • 红色 (Red): 缺乏必要安全保障、明确禁止在企业内部使用的工具。

这个系统为员工提供了清晰的行为准则,也为安全团队提供了检测和执行的依据,更重要的是,它以协作而非对抗的方式促进了创新。

  • 制定AI工具选择标准: 在评估工具之前,CISO应与法务、合规等部门合作,提前定义一套指导原则。例如:

    • 工具是否能保护公司的专有数据?

    • 我们是否保留所有输入和输出数据的所有权?

    • 数据是否会被用于训练供应商的公共模型?

  • 创建“模型卡片” (Model Cards): 对于每个评估的AI使用案例,马库斯和他的团队会创建一个“模型卡片”——一份简明扼要的一页纸文档,概述以下内容:

    • 系统架构: 输入、输出、数据流。

    • 预期用途: 解决什么业务问题。

    • 数据训练: 系统是如何使用数据进行训练的。

    • 第三方依赖: 是否涉及外部服务。

“模型卡片”让风险分析师能快速评估该用例是否违反隐私法规、安全最佳实践或新兴的监管要求。当评估了数十个这样的用例后,就可以识别出共性风险,从而制定出更具战略性的应对计划。

四、 CISO角色的演进:从“守门员”到“风险顾问”

在AI时代,CISO的角色不再是简单地说“行”或“不行”。正如诺顿所说:“我们更多的是提供做某件事所涉及的风险可见性,然后让组织和高级管理人员围绕这些风险做出决策。”

成功的AI风险治理关键在于协作。CISO需要走出去,与业务部门、法务、首席风险官等建立广泛的信任和认同,传达“我们共同面对挑战,而不是来拖后腿的”信息。

结语

AI的浪潮势不可挡。CISO不能因为风险就阻碍创新,但也不能对风险视而不见,导致灾难性的数据泄露。通过将AI融入GRC框架,采用分层管理策略,并利用“红绿灯”系统、“模型卡片”等实用工具,CISO可以为企业的AI之旅提供关键的导航,在加速创新的同时,确保航行安全。这不仅是技术的挑战,更是治理智慧的体现。

http://www.dtcms.com/a/295244.html

相关文章:

  • 前端面试专栏-前沿技术:30.跨端开发技术(React Native、Flutter)
  • 从零构建:Jenkins与Kubernetes集成的完整指南
  • 借助 VR 消防技术开展应急演练,检验完善应急预案​
  • 血液样本的分类与应用
  • 论文阅读--《Besting the Black-Box: Barrier Zones for Adversarial Example Defense》
  • Elasticsearch 高级查询语法 Query DSL 实战指南
  • 2025年“创新杯”(原钉钉杯) A题 建模思路
  • Java 实现 C/S 架构详解:从基础到实战,彻底掌握客户端/服务端编程
  • Socket编程入门:从IP到端口全解析
  • OSPF路由协议单区域
  • MSOP/DIFOP端口 vs. IP地址的关系以及每个IP下面有什么自己的东西
  • 征服 Linux 网络:核心服务与实战解析
  • RWA与DeFi(去中心化金融)的关系是什么?RWA在DeFi中扮演什么角色?
  • 香草社游戏系列原声大碟OST合集全无损 FLAC格式 30GB
  • 详细介绍AI在金融、医疗、教育、制造四大领域的落地案例,每个案例均包含实际应用场景、技术实现方案、可视化图表和核心代码示例
  • 【每天一个知识点】生成对抗聚类(Generative Adversarial Clustering, GAC)
  • 【Unity开发】数据存储——XML
  • C++11+ 原子操作 `std::atomic`,现代并发编程的核心
  • Delegate、Action 与 Func 委托的全面解析
  • GitHub Actions打包容器,推送 AWS ECR 并使 EKS 自动拉取以完成发版部署
  • 【Java基础06】ArrayList
  • 软考 系统架构设计师系列知识点之杂项集萃(115)
  • Python 程序设计讲义(14):Python 的数据运算——数值运算
  • RabbitMQ--消息顺序性
  • Java集合去重
  • OpenMed 项目深度分析:推动医疗 NLP 领域的开源革命
  • pcie常用的查看寄存器方法
  • node.js中的path模块
  • 低速信号设计之 QSPI 篇
  • 【LeetCode数据结构】二叉树的应用(一)——单值二叉树问题、相同的树问题、对称二叉树问题、另一棵树的子树问题详解