AI辅助办公让公司陷入数据泄密危机
都5202年了,不会还有人没用AI辅助办公吧?
让DeepSeek、ChatGPT帮忙撸代码、写文案、做报表,甚至生成海报、渲染视频,能大幅提高工作效率。一时间,企业大力倡导使用AI,员工纷纷学习使用AI,一片勃勃生机、万物竞发的景象。
但广东的一位老板却“不合时宜”地唱起了反调,不但要求全部员工禁止在工作中使用所有AI产品,还让员工签署“AI禁用承诺书”。让这位老板“逆潮流”原因,竟是一名员工为图省事,将公司销售数据上传至外部GenAI(生成式人工智能)平台,让AI生成、优化表格,使公司陷入泄密危机。
其实,早在两年前就有公司发生过类似事件。世界500强、电子通信巨头三星的员工直接将半导体设备数据、源代码等敏感信息“投喂”给ChatGPT,导致这些机密数据进入了AI学习数据库,瞬间外泄且无法收回。
更为可怕的是,很多企业根本不知道员工将哪些敏感数据“投喂”给了外部AI工具。Verizon《2025数据泄露调查报告》显示,15%的员工会定期利用公司设备访问GenAI(至少每15天一次),其中72%的人会使用非公司电子邮件作为账户标识,导致企业难以监控员工对外部AI工具的使用情况,也难以阻断员工将敏感数据“投喂”给AI。
这些触目惊心的案例和数据,无不给企业敲响警钟:AI在带来巨大便利的同时,也带来了新的数据泄露风险。如果企业缺乏有效的管控手段,AI极有可能成为企业的“数据黑洞”。
AI滥用带来数据安全新挑战
员工滥用AI带来的数据安全挑战,相较传统数据泄露更加隐蔽、更加难以防范:
1.敏感数据“投喂”失控
员工为了获得AI的帮助,可能将大量企业敏感信息、商业机密甚至源代码直接上传至外部AI平台。一旦提交,这些数据就脱离了企业的掌控范围,有可能被泄露或窃取。
2.交互过程中的“隐蔽泄露”
员工在使用外部AI工具辅助办公时,如撰写邮件、市场分析、代码生成、客服问答等,会将企业内部的敏感信息作为上下文提供给AI。这些交互数据可能被AI服务提供商记录、分析或用于进一步的模型优化,增加了泄露风险。
3. 第三方AI服务的安全盲区
企业难以对外部通用AI服务提供商的数据处理方式、安全措施进行有效审计和控制。这些AI模型本身可能存在未被发现的安全漏洞,或其数据隐私政策不足以保护企业数据的机密性。
4.内部员工行为管控缺失
企业普遍缺乏对员工如何使用外部AI工具、输入了哪些数据的有效监控和管理手段 。复制、截屏、直接上传等行为难以被及时阻断,数据泄露后也难以追踪溯源。
当员工将企业机密数据“投喂”给不受控的外部AI工具,一旦发生泄密,不但会给企业造成经济损失,更可能引发合规风险、商誉受损乃至损害企业的核心竞争力。因此,构建一套行之有效的防护体系,规范和保护员工使用通用AI工具时的企业数据安全,已成为企业在AI时代必须攻克的关键课题。
芯盾时代零信任数据安全解决方案
面对员工使用外部AI工具带来的泄密难题,“持续验证、永不信任”的零信任理念提供了全新的解题思路。零信任以“身份”为核心实施动态访问控制,能够从源头管控数据访问,强化终端安全,并对用户行为进行持续监控和审计,有效应对员工使用外部AI工具带来的数据安全挑战。
AI应用,安全为基。芯盾时代基于用户身份与访问管理平台(IAM)、零信任业务安全平台(SDP)等产品,打造的零信任数据安全解决方案,能够帮助企业强化对员工操作行为的管控,防范员工将敏感数据“投喂”给外部AI,防范因AI滥用导致的数据泄露,让AI真正为企业所用,成为企业发展的新引擎。