英伟达CEO黄仁勋COMPUTEX 2025演讲实录:AI工厂时代已来,Blackwell架构全面投产
5月19日,英伟达创始人兼首席执行官黄仁勋在台北国际电脑展(COMPUTEX 2025)发表主题演讲,系统阐述了英伟达从芯片设计向AI基础设施服务商的战略转型,并披露了包括Blackwell架构升级、新一代AI计算平台及机器人技术在内的多项重大进展。
AI基础设施:从数据中心到“智能工厂”的范式跃迁
黄仁勋以全球产业变革为切入点,强调英伟达已突破传统半导体企业边界,成为支撑AI时代的核心基建提供者。他指出,全球数据中心正经历根本性重构——传统以数据存储为核心的数据中心,将逐步演变为以AI计算为核心的“智能工厂”,通过持续生成Token(智能数据单元)驱动产业价值创造。这一转变如同电力取代蒸汽机、互联网重构信息传播,将重新定义未来十年的产业竞争格局。
为支撑这一变革,英伟达首次向全球公开五年期AI基础设施路线图,覆盖芯片架构、系统设计、网络协议及软件生态的完整技术图谱。黄仁勋特别强调:“我们不再是单纯的技术供应商,而是与全球企业共同规划AI工厂建设的战略伙伴。”
Blackwell架构全面落地,GB300芯片三季度登场
作为演讲核心,黄仁勋宣布基于Blackwell架构的Grace Blackwell系统已进入规模化生产阶段。该系统通过三项技术创新实现AI算力突破:
- 垂直扩展能力:通过液冷技术突破物理极限,单节点集成144个GPU核心,算力达40 PetaFLOPS,相当于2018年全球顶尖超算Sierra的整机性能;
- 网络架构革新:采用NVLink Spine互联技术,单机架带宽达130 TB/s,超越全球互联网峰值流量;
- 能效比跃升:全系统功率密度达120千瓦/机架,通过液冷方案实现能效优化。
现场演示显示,Grace Blackwell系统在Llama 70B大模型推理效率达H100平台的1.7倍,DeepSeek R1模型处理速度更实现4倍提升。黄仁勋预告,三季度将推出升级版GB300芯片,其推理性能及高带宽内存(HBM)容量较前代提升1.5倍,网络带宽翻倍至14.4 TB/s。
全场景AI计算平台:从企业级到个人开发者
针对不同用户需求,英伟达发布三款AI计算机新品:
- RTX Pro企业服务器:专为企业级AI Agent部署设计,内置TensorRT-LLM加速引擎,支持多任务并发处理;
- DGX Spark工作站:面向开发者群体,集成cuLitho计算光刻库,加速芯片设计仿真;
- DGX个人终端:搭载全新RTX 5060显卡,首次引入DLSS 3.5神经渲染技术,实现4K游戏画面实时生成。
机器人技术突破:开源生态驱动万亿级市场
在机器人领域,黄仁勋宣布两项重大开源计划:
- Newton物理引擎开源:提供实时物理模拟环境,支持机器人学习惯性、摩擦力等物理规律;
- Isaac Groot平台发布:整合Jetson Thor边缘计算芯片与Isaac操作系统,开放N-1.5模型库。
黄仁勋预测,具备通用操作能力的人形机器人将成为继PC、智能手机后的下一个万亿级终端市场,其产业规模有望在十年内突破万亿美元。
深化台链合作:共建AI超级计算机集群
演讲最后,黄仁勋公布英伟达与中国台湾产业链的深度合作计划:
- 制造协同:台积电、富士康参与Blackwell芯片及NVLink Spine组件生产;
- 技术共创:联发科基于NVLink Fusion开发半定制AI芯片,广达、和硕等企业通过Omniverse平台构建数字孪生工厂;
- 算力基建:与台达电子等企业共建台湾首台AI超级计算机,算力规模达10 ExaFLOPS。
此外,英伟达宣布在台北设立全新研发中心——NVIDIA Constellation园区,聚焦先进封装技术与AI软件生态开发。
演讲金句:AI工厂将重新定义制造业逻辑
“未来的工厂不再生产实体商品,而是持续输出智能。”黄仁勋以XAI公司Colossus项目为例,展示投资600亿美元建设的AI工厂如何通过Token生成创造价值,“当算力成本足够低时,AI将像电力一样成为基础资源,而我们的使命就是建造这些智能电厂。”
此次演讲不仅揭示了英伟达的战略转型路径,更勾勒出AI技术渗透千行百业的产业图景。随着Blackwell架构的量产落地,全球AI竞赛正从模型算法层面向基础设施层面加速演进。
AI超级计算机落地台湾,构建区域智能枢纽
黄仁勋宣布,英伟达将联合富士康、台积电及台湾政府,共同打造台湾首台巨型AI超级计算机。他强调:“台湾不仅是全球半导体制造中心,更将成为AI基础设施创新枢纽。”该系统将整合Blackwell架构与NVLink技术,为本地科研机构、初创企业及制造业提供算力支持。
现场展示了由和硕、广达、纬创等企业制造的机柜级AI计算机,其内部集成72块Blackwell芯片,通过NVLink Spine实现130 TB/s的全互联带宽。黄仁勋指出:“这一架构凝聚了150家合作伙伴的技术精华,从晶圆制造到液冷系统,每个环节都彰显台湾产业链的全球竞争力。”
NVLink Fusion开放,定制化AI基建成可能
为破解AI基础设施碎片化难题,英伟达推出NVLink Fusion技术。该技术通过NVLink小芯片实现异构计算扩展,支持第三方ASIC与NVIDIA GPU无缝集成。黄仁勋演示了联发科基于NVLink Fusion的定制CPU方案,其可直连Blackwell芯片及下一代Rubin架构,形成统一计算池。
“企业可自由组合NVIDIA GPU、自有ASIC甚至第三方加速器,所有组件通过Spectrum-X网络互联,融入全球AI生态系统。”黄仁勋表示,该技术已获Elchip、Astera Labs等企业支持,将加速超大规模数据中心向AI原生架构演进。
DGX Spark/工作站上市,开启个人AI云时代
针对开发者需求,英伟达推出两款桌面级AI计算机:
- DGX Spark:搭载1 PetaFLOPS算力与128GB LPDDR5X内存,性能媲美2016年发布的DGX-1,但体积缩减至便携式尺寸,支持本地化AI模型训练与推理。
- DGX工作站:配备8块Blackwell GPU,通过CX8交换机实现800Gb/s网络带宽,可运行万亿参数级大模型,成为“个人AI超级计算机”。
黄仁勋透露,戴尔、惠普、华硕等厂商将提供多样化配置版本,产品将于圣诞节前全面铺货。
企业IT架构革新:RTX Pro服务器与AI数据平台
为推动AI渗透传统企业,英伟达发布RTX Pro企业服务器。该系统兼容x86架构,支持虚拟机与容器化部署,同时集成8块Blackwell GPU,通过CX8网络实现高效并行计算。在Llama 70B模型测试中,其性能达H100 HGX的1.7倍,DeepSeek R1模型处理速度更提升4倍。
存储层面,英伟达推出AI数据平台IQ,将GPU计算节点嵌入存储阵列前端,实现非结构化数据的语义查询。黄仁勋展示的案例显示,VAST公司基于该平台构建的销售研究AI Agent,可在3天内完成传统需数日的销售计划制定,决策效率提升15倍。
机器人技术开源:Newton引擎与Isaac Groot平台
黄仁勋宣布,全球最先进的物理引擎Newton将于7月开源。该引擎由英伟达联合Google DeepMind开发,支持GPU加速与可微分仿真,可高保真模拟刚体与柔体动力学。其已集成至MuJoCo与Isaac Sim平台,为机器人训练提供虚拟环境。
同步推出的Isaac Groot机器人平台包含Jetson Thor边缘计算芯片与Isaac操作系统,并开源N-1.5版本模型库。黄仁勋演示了基于Cosmos世界模型的Groot Dreams数据生成流程,通过少量人类演示数据即可合成海量训练轨迹,解决机器人学习数据稀缺难题。
数字孪生赋能制造业,Omniverse构建虚拟产线
针对台湾制造业,英伟达展示Omniverse平台在工厂数字化中的应用。台积电、广达、和硕等企业已基于该平台构建晶圆厂与生产线的数字孪生,通过cuOpt优化管道布局,缩短数月调试周期。富士康则利用Cadence Reality模拟数据中心散热,降低能耗超20%。
黄仁勋强调:“全球未来三年将新建5万亿美元工厂,数字孪生是确保项目成功的关键。”台湾企业正通过Omniverse训练实体机器人团队,为智能化生产奠定基础。
NVIDIA Constellation入驻台北,深化本地研发
演讲尾声,黄仁勋宣布将在台北北投士林设立全新研发中心——NVIDIA Constellation园区。该中心将聚焦先进封装与AI软件生态开发,助力台湾技术人才参与全球AI基础设施创新。
此次演讲不仅展现了英伟达的技术布局,更凸显台湾在全球AI产业链中的核心地位。随着Blackwell架构量产与生态开放,AI工厂时代正加速到来。