2026 年 2 月 13 日,Nvidia 在加利福尼亚州圣克拉拉总部向 CNBC 展示了其最新的 Vera CPU。
马克·甘利 |美国全国广播公司财经频道
英伟达多年来,图形处理单元一直是最畅销的芯片,但代理人工智能的突然出现为其更为普通的主机芯片——中央处理单元带来了复兴。
现在,Nvidia 准备在周一开幕的年度 GTC 会议上公布有关其代理优化 CPU 的新细节,并且纯 CPU 机架可能会出现在展厅地板上。
Nvidia 人工智能基础设施负责人 Dion Harris 本周对 CNBC 表示:“CPU 正在成为人工智能和代理工作流程发展的瓶颈,并称这是一个“令人兴奋的机会”。
这家芯片巨头于 2021 年宣布推出首款数据中心 CPU Grace,下一代 Vera 现已投入生产。 CPU 通常与 Nvidia 著名的 Hopper、Blackwell 或 Rubin GPU 一起部署在全机架规模系统中。
GPU 需求的爆炸式增长使 Nvidia 成为家喻户晓的名字,也是全球市值最高的上市公司,市值达 4.4 万亿美元。其更广泛的芯片战略在二月份发生了重大转变,当时英伟达与 元 其中包括首次大规模部署 Grace CPU,并计划于 2027 年部署 Vera。
Nvidia 告诉 CNBC,数千个独立的 Nvidia CPU 也在为德克萨斯州高级计算中心和洛斯阿拉莫斯国家实验室的超级计算机提供动力。
美国银行 预测 CPU 市场可能会增长一倍以上,从 2025 年的 270 亿美元增长到 2030 年的 600 亿美元。仅在最近一个季度,Nvidia 的数据中心收入就超过 620 亿美元,同比增长 75%。
随着人工智能的大规模采用从呼叫应答聊天机器人转向面向任务的代理应用程序,计算需求的根本性变化推动了 CPU 的复兴。
GPU 非常适合训练和运行 AI 模型,因为它们拥有数千个微小核心,专注于同时执行许多操作,而 CPU 拥有数量较少的强大核心,可运行连续的通用任务。
代理人工智能需要大量的通用计算能力,因为它们为人工智能工作流程移动大量数据,跨多个代理进行编排。
“这些代理系统正在催生出作为一个团队工作的不同代理,”首席执行官黄仁勋在上个月的英伟达财报电话会议上表示。 “生成的代币数量确实呈指数级增长,因此我们需要以更快的速度进行推理。”
黄仁勋在电话会议中多次提到代理人工智能,并表示随着硬件需求的变化,“每瓦特的最佳性能实际上就是一切”。
该公司在一份新闻稿中表示,其独立 CPU 为 Meta 数据中心带来了显着的每瓦性能改进。
Creative Strategies 的芯片分析师 Ben Bajarin 表示:“这是新的基础设施:CPU 机架的绿地扩展,其唯一的工作就是运行代理人工智能。” “你的软件将位于其他地方,你的加速器将运行代币,但必须有一些东西位于中间并进行协调。”
“安静的供应危机”
现在,曾经沉寂的中央处理器市场正面临着 Futurum Group 所说的“安静的供应危机”,该集团预测到 2028 年 CPU 市场的增长率可能会超过 GPU 的增长率。
领先的CPU供应商 AMD 和 英特尔 据路透社报道,该公司已警告中国客户供应短缺。报告称,CPU 交付周期长达六个月,且价格上涨超过 10%。
AMD 数据中心负责人 Forrest Norrod 在接受 CNBC 采访时表示:“过去六到九个月里,需求的增长是前所未有的。”
诺罗德表示,他认为“这种情况不会很快放缓或停止”,但 AMD 预计到需求的增长,并正在“努力工作”以满足需求。
英特尔发言人告诉 CNBC,预计本季度库存将达到“最低水平”,“但我们正在积极应对,预计到 2026 年第二季度供应量将有所改善。”
“晶圆不会长在树上,”巴贾林说。 “我们不可能多收获 10% 的硅晶圆。整个行业都在紧缩。不幸的是,CPU 晶圆受到限制。”
至于 Nvidia 是否出现了 CPU 发货延迟的情况,哈里斯告诉 CNBC,“到目前为止,情况还不错。”
他表示,英伟达“强大的供应链”能够满足需求,很大程度上是因为其许多 CPU 将在其机架级系统中与 GPU 一起销售。
AMD 于 2024 年推出第五代 EPYC“Turin”服务器 CPU。
礼貌:AMD
针对“满足 GPU 需求”进行了优化
哈里斯表示,与行业领导者英特尔和 AMD 制造的更通用的 CPU 相比,Nvidia 在设计上采取了根本不同的方法,使其 CPU“最适合”数据处理和代理人工智能工作流程。
一个很大的区别在于每个 CPU 的核心数量。
AMD 的 EPYC 系列和英特尔的 Xeon 高性能服务器 CPU 通常具有 128 个内核,而 Nvidia 的 Grace CPU 具有 72 个内核。
“如果您是超大规模企业,您希望最大限度地增加每个 CPU 的核心数量,这从根本上降低了成本,即每个核心的美元成本。这就是一种商业模式,”哈里斯解释道。
相反,Nvidia 专门设计了 CPU 来帮助其明星 GPU 运行人工智能工作负载。
Harris 说:“单线程性能变得比每个核心的成本重要得多,因为你要确保 GPU 等非常昂贵的资源不会坐在那里等待。”
Nvidia 的 CPU 也基于 手臂 架构,更常用于智能手机等低功耗设备的芯片,而英特尔和 AMD 的 CPU 则基于传统的 x86 架构。 x86 由 Intel 于近 50 年前推出,是领先的指令集,自诞生以来一直主导 PC 和服务器处理器设计。
AMD 的 Norrod 表示,Nvidia 已经“我认为,为了满足 GPU 的需求,他们的芯片得到了很好的优化。但他们没有针对通用应用程序进行很好的优化。”
事实上,Nvidia 的一些产品依赖于更通用的 CPU。例如,Nvidia 在其 HGX Rubin NVL8 平台中将其 GPU 与英特尔或 AMD 的主机 CPU 配对,客户将其用作自己的 AI 机架的构建块。
2025 年 9 月,英特尔制造技术人员在亚利桑那州钱德勒的英特尔新 Fab 52 工厂内拿着英特尔至强 6+ 数据中心 CPU。
礼貌:英特尔
“与平台无关”
Nvidia 进军独立 CPU 之际,越来越多的客户正在为其数据中心制造自己的基于 Arm 的处理器。
亚马逊 随着 2018 年 Graviton 的发布,成为第一家推出内部 CPU 的大型超大规模提供商。 谷歌据 Futurum Group 称,Axion 处理器于 2024 年发布,目前可处理约 30% 的内部应用程序。 微软 11月发布了第二代Cobalt处理器。 Arm 预计今年将推出自己的内部 CPU,Meta 是早期客户。
Mercury Research 估计 2025 年最后一个季度的服务器 CPU 市场份额由英特尔主导,占 60%,AMD 占 24.3%,Nvidia 占 6.2%,其余份额由亚马逊、微软和谷歌等超大规模企业的内部基于 Arm 的 CPU 瓜分。
面对对计算的无限需求,英伟达通常对竞争采取欢迎态度。秉承这一传统,Nvidia 在 5 月份向第三方许可开放了 NVLink 网络技术。
2025 年剩下的时间里,NVLink 与英特尔达成了一系列交易, 高通, 富士通、Arm,为第三方 CPU 与 AI 服务器中的 Nvidia GPU 集成提供了便利。
虽然这些交易涉及基于 Arm 或 x86 架构的 CPU,但 Nvidia 现在还支持开放指令集架构 RISC-V。近年来,RISC-V 越来越受欢迎,它允许公司设计定制处理器,而无需向 Arm 等公司支付许可费。
一月份,Nvidia 达成了一项协议,允许美国芯片公司 SiFive 使用 NVLink 将其 RISC-V 芯片设计与 Nvidia GPU 连接起来。
哈里斯表示,无论 CPU 需求如何得到满足,Nvidia 的策略仍然是“平台不可知论”。
“我们当然正在构建基于 Arm 的 CPU,但我们对 x86 社区、整个生态系统进行了如此多的投资,因此无论哪种方式,我们都将拥有强大的地位。”
巴贾林将英伟达的战略转变描述为“彻底”。
“为了竞争,Nvidia 的答案不能是你从我们这里购买 GPU,或者什么也不做,”巴贾林说。无论是 GPU、CPU 还是专用硬件,“这都是产品必须扩展以满足多样化工作负载的方式,”他说。
观看:CNBC 独家首次报道 Nvidia 的 Vera Rubin AI 系统
关键词:企业,高通公司,富士通有限公司,美国银行,微软公司,Alphabet Class A,Amazon.com Inc,Arm Holdings PLC,英特尔公司,Advanced Micro Devices Inc,Meta Platforms Inc,NVIDIA Corp,Amazon.com Inc,NVIDIA Corp,Arm Holdings PLC,Microsoft Corp,Alphabet Class A,美国银行公司,英特尔公司,Meta Platforms Inc,Advanced Micro Devices Inc,Technology,Marvell Technology Inc,超微计算机公司,戴尔科技公司,商业新闻