随着Anthropic重磅推出的Claude Cowork,以及OpenClaw这类可自主执行任务的超级AI代理工具在2026年集中爆发,AI智能体浪潮可谓迅速席卷全球,
AI智能体风靡全球之际,AI算力投资主线正在从“围绕GPU的单点算力竞赛”转向“AI智能体驱动的全栈算力系统”,
正是在CPU需求大爆发背景之下,两大x86架构CPU超级巨头——英特尔与AMD股价近期携手狂飙且不断创下历史新高点位。与此同时,
在中东战火背景之下,经历最新一轮的全球股票市场从阶段性低点到创新高的投资者们最深刻心得无疑在于——不要把每一条地缘政治头条都当成趋势本身,过去数周的市场已经将“特朗普临阵退缩”、“AI算力基础设施链条驱动的科技板块业绩大幅上修趋势”以及“美伊与以色列最终会回到谈判桌”这些核心逻辑位列地缘政治等级之上。
过去两年AI叙事几乎被GPU垄断,CPU一度像是AI军备竞赛里的“配角”;
在智能体链路中,大量工作负载不仅耗费在GPU上的token生成,还消耗在Python解释执行、网页抓取、数据库检索、RAG索引访问、词法处理、任务队列调度、RPC/IPC通信、KV状态更新等CPU主导环节,这意味着决定用户体验的,越来越不是单颗GPU的峰值算力,
因此,毋庸置疑的是,AI算力架构的瓶颈正在从以矩阵乘加吞吐为核心的GPU,彻底转向以控制流、任务编排、内存/IO协调为核心的数据中心CPU,这一变化的根源在于工作负载范式已经发生了本质迁移。
早期大模型推理以“单次请求—单次生成”为主,CPU更多承担数据搬运、请求路由与基础调度,属于典型的辅助控制面;但进入AI智能体与强化学习时代后,系统负载不再是单一前向推理,而是演变为包含任务规划、工具调用、子代理协同、环境交互、状态管理与结果验证在内的复杂闭环。
摩根士丹利最新预测数据显示,智能体大爆发标志着从计算到编排的结构性转变,由此推导出到2030年新增325亿美元至600亿美元的CPU增量市场空间,并将服务器级别CPU总TAM大幅扩至825亿至1100亿美元量级。TrendForce的一项预测报告则显示,在AI智能体时代,CPU:GPU配比可能会从传统AI数据中心的1:4至1:8,向1:1至1:2大幅重估。
GF Securities的分析师们在给客户的报告中写道:“作为AI基础设施建设的核心协调器,服务器CPU在过去几个月获得了显著关注。这一趋势受代理式AI/推理浪潮需求推动,由OpenClaw和Anthropic突破性成果驱动,后者年度经常性收入在四月份飙升至440亿美元。例如,在最新的业绩电话会议中,”
“根据我们的估算,假设推理占AI工作负载的90%,此外,我们预计2026/2027/2028年的新增服务器CPU需求分别为670万、760万和630万单位台,同期总需求将达到3000万、3800万和4400万台,意味着三年复合年增长率约为23%。”GF Securities的分析师们写道。
在接下来的深入分析报告中,GF Securities指出,由于x86架构的CPU仍是数据中心服务器领域的最主流指令集架构,AMD和英特尔无疑将成为CPU超级周期的最主要受益者。
分析师们解释道:“从基本面角度来看,英特尔受益于持续的产能加速转化及第二季度CPU价格大幅上涨,这在我们4月16日的报告中已有说明。对于AMD,凭借稳健的产品更新迭代路线图和相对充足的产能,我们预计其市场份额将继续提升。目前我们预计,英特尔旗下的DCAI业务和AMD的数据中心服务器CPU业务营收在2026年将分别增长39%和73%。”
英特尔还可能在下一代AI服务器CPU中获得更大规模市场份额,;AMD的Venice CPU则可能部署在其下一代的Helios机架系统和8-GPU AI服务器算力集群中。
尽管x86仍为主流架构,但该公司认为基于ARM架构的服务器CPU也可能呈现出加速增长,。
分析师们补充道:“英伟达已为数据中心客户推出独立Vera CPU机架,早期采用者包括阿里巴巴、CoreWeave、Meta和Oracle。在谷歌生态系统内,TPU算力体系的GPU与CPU比率正在从之前的4:1调整至4:2。。”
GF Securities的分析师们还认为,最近宣布重新进入数据中心CPU市场的高通正在“积极开发”2028年的数据中心CPU产品线日的投资者日获得更多信息。
分析师们补充道:“在基准乐观情景下,假设高通在2028年获得30%的ARM架构CPU市场份额,其带来的净利润将为36亿美元,相当于其全年非GAAP利润大幅提升约30%。”
据了解,值得注意的是,在2010年代中期就曾推出过基于ARM架构的Centriq 2400服务器处理器,具备高核心数且面向云计算及高吞吐量工作负载,这表明其在数据中心CPU设计上拥有一定经验。
在数据中心级AI加速器方面,高通已经推出了面向大规模AI推理的产品线加速器,这两款高性能AI芯片专为数据中心AI推理工作负载设计,并计划在2026年和2027年陆续商业化,这标志着高通正试图建立与CPU协同的AI芯片产品线,以便在AI推理及agentic AI等新兴工作负载中发挥作用。它们基于高通独家的Hexagon NPU架构,优化了内存容量和能源效率,并可配置为数据中心机柜级解决方案,这意味着高通正在追赶英伟达和AMD在大型AI算力基础设施领域的部署能力,同时力争打造出低TCO的AI推理平台。










