cudagraph 本质详解
理解 CUDA Graph 的本质,关键在于理解它解决了什么问题,以及它通过什么机制来解决这个问题。
一、 核心问题:传统 CUDA 编程的“CPU 瓶颈”
在 CUDA Graph 出现之前,我们通常使用 CUDA Stream 来向 GPU 提交任务。这是一个动态的过程:
- CPU 作为指挥官:CPU 循环地、逐条地向 GPU 发出指令(如核函数启动
kernel<<<...>>>
、内存拷贝cudaMemcpyAsync
等)。 - GPU 作为执行者:GPU 上的 CUDA Driver 接收这些指令,然后放入一个队列(Stream)中,依次执行。
这个模型非常灵活,但当任务变得小而密集时,会暴露出一个致命的性能瓶颈:CPU 开销 (CPU Overhead)。
每一次 kernel<<<...>>>
或 cudaMemcpyAsync
调用,CPU 和驱动程序都需要做很多“幕后工作”:
- 参数验证:检查核函数的参数是否合法。
- 资源准备:准备和设置硬件状态。
- 提交工作:将指令打包并发送到 GPU。
- 内核调用开销:从用户态切换到内核态,与驱动交互。
当你的核函数本身执行时间很短(例如,几十微秒),而你需要在一秒内执行成千上万次这样的核函数时,CPU 花在“发号施令”上的时间,甚至可能超过 GPU 真正“干活”的时间。CPU 成了拖后腿的那个,GPU 大部分时