别盯着GPU了,CPU正成为AI时代的“新瓶颈”

marsbit发布于2026-04-13更新于2026-04-13

文章摘要

在AI快速发展的背景下,行业关注点正从GPU转向CPU。随着AI进入智能体时代,系统性能越来越依赖CPU的执行与调度能力,而不再仅由GPU算力决定。谷歌与英特尔达成协议,在全球AI数据中心部署英特尔至强处理器,凸显CPU在AI基础设施中的关键地位。 CPU供应出现紧张,2025年第四季度服务器CPU平均价格上涨30%,部分型号交付周期延长至六个月。产能被GPU挤占导致短缺,AI实验室虽拥有足够GPU,却缺乏配套CPU。 智能体工作负载中,CPU负责多步推理、API调用、数据读写等任务,研究显示CPU端处理时间占总延迟的50%-90.6%。大上下文窗口(如100万token)进一步加大CPU内存与带宽压力。 英特尔、AMD和英伟达采取不同策略:英特尔深化与谷歌合作,推出CPU与加速器组合方案;AMD受益于智能体需求增长,服务器CPU收入份额突破40%;英伟达则设计以服务GPU为核心的“调度中枢”CPU,强调高效协同。 行业趋势表明,AI竞赛焦点转向系统级瓶颈解决。OpenAI与AWS的合作中,CPU规模成为重要规划变量。预计到2030年,全球CPU市场规模将翻倍至600亿美元,AI驱动的新基础设施正在形成。

在AI狂飙的这些年里,行业几乎被一条逻辑主导:算力决定上限,而GPU就是算力的核心。

不过,进入2026年,这套逻辑开始变动:模型推理不再是唯一瓶颈,系统性能越来越取决于执行与调度能力。GPU依然重要,但决定AI“能不能跑起来”的关键,正逐渐转向长期被忽视的CPU

美国当地时间4月9日,谷歌与英特尔达成多年协议,在全球AI数据中心规模部署英特尔的“Xeon至强处理器”,正是为了破解这个瓶颈。英特尔CEO陈立武直言,AI运行在整个系统上,CPU和IPU才是性能、效率和灵活性的关键。换句话说,过去两年被当作“配角”的CPU,正在卡住AI扩展的“脖子”。

英特尔CEO陈立武在社交媒体表示:英特尔正与谷歌深化合作,从传统CPU扩展到AI基础设施(如IPU),共同推进AI与云计算能力建设。

CPU不再只是一个被动的配套组件,而正在成为AI基础设施中的关键变量之一。

01

一场“悄无声息”的供应危机

当大家都在盯着GPU的交货周期时,CPU市场的紧张气氛已经悄然拉满。

根据多家IT分销商的最新报告,2025年第四季度,服务器CPU的平均售价上涨了约30%。这种涨幅在相对成熟的CPU市场是非常罕见的。

AMD数据中心负责人福雷斯特·诺罗德(Forrest Norrod)透露,过去三个季度,CPU需求的增长速度超乎想象。目前,AMD的交付周期已经从原来的八周延长到了十周以上,部分型号甚至面临长达六个月的延迟。

这种短缺主要由于“次级效应”引发的资源挤兑。有业内人士表示,由于台积电的3nm生产线极其紧张,原本分配给CPU的晶圆产能,正不断被利润更高的GPU订单挤占。这导致了一个极具讽刺意味的局面:AI实验室拥有了足够的GPU,却发现市场上买不到足够的顶级CPU来“带”动这些显卡。

在这一轮CPU抢购潮中,还有埃隆·马斯克(Elon Musk)。

英特尔首席执行官陈立武在社交平台上证实,马斯克已委托英特尔为其在得克萨斯州的“Terafab”项目设计并制造定制芯片。这个庞大的项目旨在为xAI、SpaceX和特斯拉提供统一的计算底座。

马斯克对英特尔的信任,在很大程度上是因为英特尔正试图将自己嵌入到从地面数据中心到太空轨道计算的每一个层面。

对于英特尔来说,这无疑是一剂强心针。有行业分析师预测AMD在服务器CPU市场的收入份额将在2026年超过英特尔,但英特尔在x86生态系统中的深厚惯性和制造能力,依然是马斯克这类大客户无法忽视的筹码。

这种跨行业的深度捆绑,正让CPU市场的竞争从单纯的参数比拼,升级为生态系统和供应链稳定性的博弈。

02

为什么CPU会成为“短板”?

CPU突然成为瓶颈,核心是它需要承担的工作,在智能体时代发生了根本性变化。

传统聊天机器人模式中,CPU主要负责调度和数据处理,GPU承担核心推理计算。由于计算密集型环节集中在GPU侧,整体延迟通常由GPU主导,CPU很少成为性能瓶颈。

但智能体工作负载完全不同。一个智能体需要执行多步推理、调用API、读写数据库、编排复杂业务流,并将中间结果整合为最终输出。搜索、API调用、代码执行、文件I/O和结果编排等任务,大部分落在CPU和主机系统侧。GPU负责token生成(即“思考”),而CPU负责将“思考”结果转化为实际行动。

佐治亚理工学院学者在2025年11月发表的论文《以CPU为中心的智能体型AI视角》(A CPU-Centric Perspective on Agentic AI)中,对智能体工作负载中的延迟分布进行了量化分析。研究发现,CPU端工具处理所占用的时间,占总延迟的50%至90.6%。在某些场景下,GPU已准备好处理下一批任务,而CPU仍在等待工具调用返回。

另一个关键因素是上下文窗口的快速扩展。2024年,主流模型大多支持128K至200K token。进入2025年,Gemini 2.5 Pro、GPT-4.1、Llama 4 Maverick等模型均开始支持100万token以上。KV缓存(Key-Value Cache,用于加速Transformers模型推理过程)随token数量线性增长,在100万token时约为200GB,远超单块H100的80GB显存容量。

对于这类问题的解决方案之一是将KV缓存部分卸载至CPU内存。这意味着CPU不仅要管理编排和工具调用,还要协助承载显存放不下的数据。CPU内存容量、内存带宽以及CPU与GPU之间的互连速度,由此成为系统性能的关键。

因此,适合智能体时代的CPU,更需要低延迟、一致的内存访问能力,以及更强的系统级协同能力,而不是单一的核心规模扩张。

03

厂商们都在做什么?有人抢地盘,有人改设计

面对这场突然爆发的CPU需求,几家大厂的打法完全不同。

英特尔是传统服务器CPU的老大。Mercury Research的数据显示,2025年第四季度,英特尔在服务器CPU市场仍占60%的份额,AMD占24.3%,英伟达占6.2%。但英特尔这些年一直在追赶新技术,这次CPU需求的爆发对他们来说,既是机会也是考验。

英特尔现在的策略是两条腿走路。一边是继续卖至强处理器,跟谷歌这样的超大规模客户深度绑定;另一边跟SambaNova合作,推出基于至强处理器与其自研RDU加速器的组合方案,主打“不用GPU也能跑智能体推理”的卖点。至强6 Granite Rapids和18A工艺的路线图,将是检验英特尔能否翻盘的关键。

AMD则是这次CPU需求爆发中最大的受益者之一。2025年第四季度,AMD数据中心收入54亿美元,同比增长39%。第五代EPYC Turin占了服务器CPU收入的一半以上,运行EPYC的云实例部署同比增长超过50%。AMD的服务器CPU收入份额首次突破40%。

AMD CEO苏姿丰(Lisa Su)把增长原因直接归到了“智能体”的发展——智能体工作负载把任务“推回”到了传统CPU任务上。

2026年2月,AMD还宣布了一项与Meta的潜在交易,价值超过1000亿美元,供应MI450 GPU和Venice EPYC CPU。

不过,AMD在系统级协同方面仍有提升空间,缺乏类似NVLink C2C这样成熟的高速CPU-GPU互连能力。随着智能体(Agent)系统对数据交互与协同效率要求不断提高,这一环节的重要性也在逐步上升。

英伟达设计CPU的思路,跟英特尔和AMD完全不一样。

英伟达Grace CPU只有72个核心,而AMD EPYC和英特尔至强通常是128个。英伟达AI基础设施负责人迪昂·哈里斯(Dion Harris)解释称:“如果你是超大规模企业,你希望最大化每个CPU的核心数量,这基本上会降低成本,即每核心的美元成本。所以这是一种商业模式。”

换句话说,在AI算力体系里,CPU的角色不再是通用计算主力,而是为GPU服务的“调度中枢”。如果CPU跟不上,昂贵的GPU就会被迫等待,整体效率反而下降。

因此,英伟达在设计上优先保证CPU与GPU之间的高效协同。例如通过NVLink C2C互连,将CPU与GPU之间的带宽提升到约1.8TB/s,远高于传统PCIe,CPU可以直接访问GPU内存,KV缓存管理一下子简单了很多。

目前,英伟达已将Vera CPU作为独立产品销售。CoreWeave是第一个客户。与Meta的交易更夸张,这是其第一次大规模“纯Grace部署”,也就是CPU在没有GPU配对的情况下大规模独立部署。

研究机构Creative Strategies首席分析师本·巴贾林(Ben Bajarin)指出,在高强度的系统协作中,CPU的处理能力必须能够匹配加速器的迭代速度。如果数据通道出现哪怕百分之一的延迟,整个AI集群的经济效益就会大打折扣。这种对极致系统效率的追求,正迫使所有大厂重新审视CPU的性能指标。

Constellation Research副总裁兼首席分析师霍尔格·穆勒(Holger Mueller)表示,随着AI工作负载向智能体驱动架构转变,CPU的地位正变得愈发核心。他指出:“在智能体世界中,智能体需要调用API和各类业务应用程序,这些任务最适合由CPU来完成。”

他还补充道:“目前,关于GPU和CPU谁更适合处理推理任务,尚无定论。GPU在模型训练方面占据优势,而像TPU这样的定制ASIC也有其专长。但有一点是明确的:谷歌需要采用混合处理器架构。因此,谷歌选择与英特尔展开合作是合理的”。

04

结语:智能体时代,算力天平回摆

在最新的产业观察中,一个数据需要我们注意。在亚马逊AWS与OpenAI高达380亿美元的合作协议中,其官方也明确提到了“数千万个CPU”的扩展规模。

在过去几年,通常情况下,行业的关注焦点总是那“数十万个GPU”。然而,OpenAI等前沿实验室主动将CPU规模作为一个重要的规划变量,向外界传递了一个清晰的信号:智能体工作负载的扩展,必须建立在庞大的CPU基础设施之上。

美国银行预测,到2030年,全球CPU市场规模有望从目前的270亿美元翻倍至600亿美元。这多出来的份额,几乎全部将由AI驱动。

我们正在见证一种全新的基础设施开始扩张:大厂不再只堆GPU,而是同步扩张一整层“CPU调度基础设施”,专门为AI智能体提供运行支撑。

英特尔与谷歌的联手,以及马斯克对定制芯片的重金投入,都在证明一个事实:AI竞赛的制胜点正在前移。当算力不再稀缺,谁能最先解决系统级的“瓶颈”,谁才能在这场万亿级的游戏中笑到最后。

*特约编译金鹿对本文亦有贡献。

本文来自微信公众号“腾讯科技”,作者:李海伦,编辑:徐青阳

相关问答

Q为什么CPU正成为AI时代的“新瓶颈”?

A随着AI工作负载向智能体驱动架构转变,CPU需要承担更多任务,如多步推理、API调用、数据库读写、复杂业务流编排等。研究表明,CPU端工具处理时间占总延迟的50%至90.6%。此外,上下文窗口扩展导致KV缓存需求激增,CPU需协助管理显存放不下的数据,其内存容量、带宽及与GPU的互连速度成为系统性能关键。

Q谷歌与英特尔达成协议的目的是什么?

A谷歌与英特尔达成多年协议,旨在全球AI数据中心规模部署英特尔的“Xeon至强处理器”,以破解AI系统性能瓶颈。英特尔CEO指出,CPU和IPU是性能、效率和灵活性的关键,合作将共同推进AI与云计算能力建设。

QCPU市场紧张的主要原因是什么?

ACPU市场紧张主要由于“次级效应”引发的资源挤兑。台积电3nm生产线紧张,原本分配给CPU的晶圆产能被利润更高的GPU订单挤占,导致顶级CPU供应短缺。2025年第四季度,服务器CPU平均售价上涨约30%,AMD交付周期从八周延长至十周以上,部分型号甚至延迟六个月。

Q英伟达设计CPU的思路与英特尔和AMD有何不同?

A英伟达设计CPU的思路是将其作为为GPU服务的“调度中枢”,而非通用计算主力。其Grace CPU仅72个核心(远少于AMD和英特尔的128个),但优先保证CPU与GPU间高效协同,通过NVLink C2C互连实现约1.8TB/s带宽,使CPU能直接访问GPU内存,简化KV缓存管理,提升整体效率。

Q智能体时代CPU需求增长的市场预测如何?

A美国银行预测,到2030年,全球CPU市场规模将从目前的270亿美元翻倍至600亿美元,新增份额几乎全部由AI驱动。OpenAI等实验室在基础设施规划中明确纳入“数千万个CPU”,表明智能体工作负载扩展需建立在庞大CPU基础设施之上,CPU正成为AI竞赛的新制胜点。

你可能也喜欢

交易

现货
合约

热门文章

如何购买ERA

欢迎来到HTX.com!我们已经让购买Caldera(ERA)变得简单而便捷。跟随我们的逐步指南,放心开始您的加密货币之旅。第一步:创建您的HTX账户使用您的电子邮件、手机号码注册一个免费账户在HTX上。体验无忧的注册过程并解锁所有平台功能。立即注册第二步:前往买币页面,选择您的支付方式信用卡/借记卡购买:使用您的Visa或Mastercard即时购买Caldera(ERA)。余额购买:使用您HTX账户余额中的资金进行无缝交易。第三方购买:探索诸如Google Pay或Apple Pay等流行支付方法以增加便利性。C2C购买:在HTX平台上直接与其他用户交易。HTX场外交易台(OTC)购买:为大量交易者提供个性化服务和竞争性汇率。第三步:存储您的Caldera(ERA)购买完您的Caldera(ERA)后,将其存储在您的HTX账户钱包中。您也可以通过区块链转账将其发送到其他地方或者用于交易其他加密货币。第四步:交易Caldera(ERA)在HTX的现货市场轻松交易Caldera(ERA)。访问您的账户,选择您的交易对,执行您的交易,并实时监控。HTX为初学者和经验丰富的交易者提供了友好的用户体验。

1.0k人学过发布于 2025.07.17更新于 2025.07.17

如何购买ERA

相关讨论

欢迎来到HTX社区。在这里,您可以了解最新的平台发展动态并获得专业的市场意见。以下是用户对ERA(ERA)币价的意见。

活动图片