龙蜥Confidential AI:开源机密计算AI解决方案,让云端模型安全运行
在人工智能技术飞速发展的今天,AI 模型的商业价值日益凸显,但随之而来的数据隐私和模型安全问题也成为企业和开发者关注的焦点。如何在享受云计算强大算力的同时,确保敏感 AI 模型和数据不被泄露?龙蜥 Confidential AI 开源项目为这一领域提供了基于可信硬件和开源软件的解决方案框架。
AI 云端安全防护体系设计目标
龙蜥 Confidential AI 开源项目让开发者能够在云端安全执行敏感 AI 任务:无需暴露原始数据/模型,借助可信硬件、远程证明等技术,实现在不信任环境中保护用户隐私数据、训练集和生成式模型的全流程防护,同时正常调用云计算资源完成复杂 AI 推理和训练。
这一目标的实现基于一个核心理念:通过硬件级别的可信执行环境(Trusted Execution Environment,TEE),在不可信的云环境中创建可信的"安全飞地",确保 AI 模型在整个生命周期中的机密性和完整性。
核心安全架构与技术栈解析
龙蜥 Confidential AI 采用模块化设计,由三个核心组件构成完整的安全体系。
1.Trustee:用户侧资源管理中心
Trustee 在此架构中管理用户资源,也作为远程证明体系中的验证端。其核心职责是接收来自 Trustiflux(即 Attestation Agent)生成的 TEE 环境证据,并对其进行严格的验证,以确定 TEE 及其内部工作负载的真实性、完整性和合理性,并向通过验证的 TEE 环境开放指定的用户资源。
2.Trustiflux:云端可信执行引擎
Trustiflux 在龙蜥 Confidential AI 方案中充当 TEE 的证明端或称作声明端。其核心功能在于从 TEE 内部安全地收集和生成可验证的、加密的证据,以证明 TEE 本身的真实性及其内部运行工作负载的完整性,并在此基础上,从 Trustee 获取用户私有数据用于工作负载的部署执行。
3.TNG:零信任网络网关
TNG (Trusted Network Gateway) 是针对机密计算场景端到端信道保护设计的网络组件。可作为一个守护进程,负责建立基于远程证明的安全通信信道,对进出机密实例的网络流量请求进行透明加解密(区别于传统 TLS),实现端到端的数据安全。
关键技术突破与核心防护机制
-
硬件级安全保障:充分利用 Intel TDX 和 Hygon CSV 等机密计算硬件,结合远程证明技术,确保密钥仅在经过验证的可信环境中解密,保障模型隐私。这种硬件级别的保护机制,即使在云环境被恶意攻击者控制的情况下,也能确保 AI 模型和数据的安全。
-
端到端加密流程:系统实现了完整的端到端加密保护流程。用户在本地加密模型文件,将加密模型上传并使用 Trustee 保存加密密钥,云端 Trustiflux 通过远程证明验证环境可信性后,从 Trustee 获取密钥,在可信环境中解密并挂载模型。
-
灵活的部署方案:项目提供 Docker 和 RPM 两种主要部署方式,满足不同场景需求。
-
-
Docker 部署:适用于混合环境模拟,流程涵盖用户侧(Trustee 密钥管理)与云端(Trustiflux 可信推理)的协作。容器化封装依赖环境和配置脚本,避免因环境差异导致的部署问题,确保流程一致性。
-
RPM 部署:基于 RPM 包的部署方案,通过标准软件包管理器进行版本控制和依赖管理,适用于生产环境部署;支持直接在硬件专用环境(如 TDX 的物理机或虚拟机)上部署,获得更优性能。
-
开发调试与演示验证:无论选择 Docker 还是 RPM 部署方式,都支持在开发调试或演示验证场景下使用。甚至可在单台实例中完整模拟端到端流程,方便了开发测试和演示验证工作。
-
应用场景与效能分析
-
企业级 AI 模型保护:对于拥有核心AI算法的企业而言,龙蜥 Confidential AI 方案提供了在享受云计算资源的同时保护知识产权的完美解决方案。无论是大语言模型、计算机视觉模型还是推荐算法,都可以在完全加密的状态下部署到云端,实现安全的推理服务。
-
合规性和隐私保护:在数据保护法规日益严格的环境下,该项目帮助企业满足 GDPR、数据安全法等合规要求,通过技术手段确保用户数据在 AI 处理过程中的隐私性,大幅度降低企业用户对 AI Infra 的信任成本。
-
快速上手体验:项目提供了完善的快速开始指南,用户能够在支持 TDX 的机密计算环境(如阿里云 TDX ECS)上快速部署和验证。通过预置自动化脚本处理 PCCS 配置、服务发现等复杂步骤,降低上手成本。
目前项目提供的 Demo 支持 DeepSeek 和 Qwen 等主流 AI 模型,用户可以通过简单的配置实现基于其它大模型的安全部署和推理服务。
开源策略与未来技术演进规划
目前龙蜥 Confidential AI 已经发布了第一个正式版本 v1.0.0,作为 Apache 2.0 许可证下的开源项目,龙蜥 Confidential AI 欢迎大家参与贡献和合作。项目的模块化设计使得开发者可以根据自己的需求进行定制和扩展,并支持自定义配置参数,可通过修改配置文件调整部署策略。
未来社区将持续推进以下重点工作:增加 CI 测试以确保项目组件的兼容性与可用性;扩展龙蜥 Confidential AI 方案的适用范围;完善文档体系以优化用户体验;细化 TEE 环境度量标准;建立 CAI 核心组件的透明软件供应链体系及参考值标准等。
龙蜥 Confidential AI 项目链接:https://github.com/openanolis/confidential-ai
—— 完 ——