CPO(Co-Packaged Optics) 是整个数据中心互连范式的下一代核心
CPO(Co-Packaged Optics) 是整个数据中心互连范式的下一代核心
摘要:CPO(Co-Packaged Optics,共封装光学技术) 是整个数据中心互连范式的下一代核心。下面我会用系统化方式讲透它:
🧱 一、CPO 是什么
CPO(Co-Packaged Optics,共封装光学)
指的是将“光模块(光收发引擎)”直接封装到交换芯片(Switch ASIC)或加速器芯片的同一封装中,通过极短的电连接或直接的光接口把信号从芯片内 SerDes 端口送入光学通道。
🔸 定义简化图
传统:Switch ASIC ——(长铜线)—— 光模块
CPO :Switch ASIC + 光引擎 同封装相连,几乎无铜缆长度
⚙️ 二、为什么会有 CPO —— 背景动机
1️⃣ 电子互连瓶颈
在 400G / 800G / 1.6T 网络速度时代:
- 单个 SerDes 速率已达 112G/224G PAM4;
- PCB 铜线传输损耗和功耗呈指数上升;
- SerDes 在板级要补偿几十 dB 的损耗,耗电量可达每bit 10-15 pJ;
- 这导致 Switch ASIC 的大部分功耗花在 I/O 信号驱动 而不是逻辑上。
换句话说:
“激光都还没发射出去,电能已经在铜线上烧掉了。”
2️⃣ 光电边界的下移
以前:光模块 = 网络边界
未来:光收发单元会逐层内移,直到进入封装。
- CPO 就是这种趋势的中点:
它不要求光学器件做在芯片上(那属于硅光),
但要求光引擎与 ASIC 共封装在同一 substrate 上。
🧩 三、传统光模块 vs CPO :结构级对比
| 对比项 | 传统可插拔光模块(e.g., QSFP-DD, OSFP) | CPO(共封装光学) |
|---|---|---|
| 光学引擎位置 | 位于 ASIC 外部面板,通过长 PCB trace 连接 | 紧贴 ASIC 封装,直接共基板封装 |
| 信号介质 | 铜走线 + 插座 + 连接器 | 短电互连 (few mm) / 或直接光波导 |
| 传输损耗 | 高(>25dB链路预算) | 极低(<5dB) |
| 功耗 | 高 (10–15 pJ/bit) | 大幅降低 (3–5 pJ/bit) |
| 热设计 | 模块独立散热 | 与ASIC共同散热设计 |
| 维护与更换 | 可插拔、可替换 | 封装固化,不可模块化更换 |
| 成本结构 | 模块、连接器、主板、散热独立 | 封装设计复杂,初期成本高 |
| 典型速率级别 | <400G / 800G | 800G / 1.6T / 3.2T 及以上扩展必需 |
| 主要推动者 | Finisar、Lumentum、InnoLight 等 | Broadcom、Intel、NVIDIA、Cisco |
线性类比:
- 传统光模块:相当于“外接显卡”
- CPO:相当于“把GPU直接焊进CPU里”
🧠 四、CPO 的技术实现细节
① 光引擎(Optical Engine)
光引擎包含:
- 光调制器 / 激光器(Laser Source)
- Driver & TIA(前端电路)
- 光纤耦合接口(光波导或MT光纤阵列)
这些光电部件通常封装在 硅光子芯片 (Silicon Photonics Die) 上。
② 光纤接口方式
常见有:
- Connectorized fiber(可插拔光纤)
- Fiber array attach(固定耦合,小型高密度)
- Polymer waveguide(聚合物光波导)
目前主流CPO采用:
硅光芯片 + 光纤阵列对接 + 光学胶封装
实现“multi-lane, parallel optical IO”。
③ 电接口
光引擎与ASIC之间不再使用板级 SerDes 走线,
而是用更简单的短距电接口,如:
- XSR(Extra Short Reach)SerDes
- BOW (bunch of wires) 接口
- UCIe-E (optical adaptation layer) 新兴标准
这让ASIC的每个端口功耗可以降低30~50%。
🏗️ 五、CPO 与产业巨头路线
| 厂商 | 技术实现 | 应用场景 |
|---|---|---|
| Broadcom | CPO平台(与Google合作),PAM4 112G → 224G SerDes直连Silicon Photonics | Tomahawk 5/6核心交换机,800G–1.6T |
| Intel (Silicon Photonics) | 使用EMIB+硅光封装,实现CPO + onboard激光器 | 未来Fabric / Xeon-DPU互连 |
| NVIDIA | NVLink over CPO(光互连版NVLink),用于DGX/NVL系统中跨机柜连接 | Grace Hopper / NVLink Fabric |
| Cisco / Marvell | CPO交换机平台,用于下一代 Spine 网络设备 | 数据中心核心层互连 |
| AMD 合作方 (Ayar Labs) | “In-package Optical I/O” 芯片,探索CPO with GPU | HPC, MI300系列后续路线 |
🔍 六、CPO 的关键优势
| 维度 | 优点 |
|---|---|
| 功耗降低 | 节点间光传输能耗比铜低2–5倍 |
| 信号完整性佳 | 几乎零电损、无EMI困扰 |
| 密度更高 | 支持 Tbps/封装级数据带宽 |
| 延迟降低 | 减少SerDes equalization链路带来延时 |
| 可扩展性强 | 有望支持 3.2T+ 单封装带宽 |
⚠️ 七、CPO 的挑战
| 维度 | 挑战点 |
|---|---|
| 制造良率 | 光电异质集成难度非常高 |
| 热设计 | 光子器件怕热,与ASIC共封装要分区散热 |
| 可维护性 | 模块不可更换,可靠性要求极高 |
| 成本 | 初期组装成本高(光纤阵列+对准+封装) |
| 标准化 | OIF / COBO / IEEE 尚未完全统一接口标准 |
🌐 八、CPO 与传统光模块的演进关系
| 阶段 | 特征 | 技术代表 |
|---|---|---|
| 1️⃣ 可插拔电接口光模块时代 | 外置QSFP、OSFP;板级铜走线连接 | 10G → 400G |
| 2️⃣ Onboard Optics (OBO) | 光模块下沉到主板上,与ASIC更近 | Facebook “COBO”项目 |
| 3️⃣ Co-Packaged Optics (CPO) | 光引擎嵌入同一封装,SerDes极短 | Broadcom, Intel等 |
| 4️⃣ In-package Photonics (未来) | 硅光子晶圆直接集成于SoC侧 | Ayar Labs, Intel IPT等 |
→ CPO 是进入“光互连SoC时代”的过渡桥梁。
🧮 九、与数据中心架构的关系
🔸 应用层级
| 层级 | 当前连接 | 未来趋势 |
|---|---|---|
| 机内/板内 | Copper / Active Copper Cable | 铜保持主导(成本低) |
| 机架内 | AOC(Active Optical Cable) | CPO 向内部渗透 |
| 跨机架 / 集群 | 光模块QSFP-DD | 未来100%光 / CPO 接口 |
| 集群间 / 数据中心间 | DWDM / 长距光链路 | 光纤主导,无铜存在 |
🔸 对 Scale-out 的意义
在超大规模 AI 集群(>10,000 GPU)中:
- Data Fabric 的能耗成为最大瓶颈;
- 铜线网络(ISL、InfiniBand)扩展代价高;
- CPO/NVLink over Optical 可实现 >1TB/s 光互连,且能保持统一内存寻址体系(Scale-up体验)。
🔮 十、未来趋势与行业方向
(1) 光电融合SoC化
- 光引擎将嵌入封装(CPO)→ 再进一步嵌入晶圆(In-package Photonics)。
- Ayar Labs、Intel、Broadcom 均在研发硅光I/O Die。
(2) 软件层面抽象Fabric
- 对上层用户隐藏“光/电”差异;
- Fabric抽象成统一 CXL / NVLink Fabric;
- 透明化光互连架构(optical-aware architecture)。
(3) 生态标准化:
- OIF (Optical Internetworking Forum)
主导 CPO共封装接口标准(XSR, CEI-224G)。 - COBO (Consortium for On-Board Optics)
定义物理、机械光模块层规范。 - IEEE 802.3df/dj
聚焦 1.6T 以太网传输层面标准。
✅ 总结精华要点
| 关键点 | 内容摘要 |
|---|---|
| CPO定义 | 光收发引擎与ASIC封装共基板,极短电互连 |
| 区别于传统光模块 | 去掉长PCB铜线与可插拔模块,显著减功耗与延迟 |
| 核心推动力 | 寻求Tbps时代的能耗/性能平衡 |
| 主要应用 | 数据中心核心层交换机、AI集群互连、超算Fabric |
| 领先厂商 | Broadcom、Intel、NVIDIA、Cisco、Ayar Labs |
| 未来演进 | CPO → In-package Photonics(封装级硅光) |
| 本质意义 | 光从“外设”变为“逻辑芯片I/O”——一种新的计算/通信边界变革 |
