智能体崛起后,整个AI价值链的分布都变了!大摩:GPU不再是一切
AI投资的主叙事正在经历一次结构性迁移。摩根士丹利最新研究指出,随着AI从“生成内容”走向“自动执行任务”,下一轮AI基础设施的增量逻辑将从“单芯片算力竞赛”扩展为“全栈系统工程”——GPU依然是核心,但不再独享预算与溢价。
据追风交易台,摩根士丹利研究部分析师Shawn Kim在报告中直接写道,“智能体AI标志着从计算到编排的结构性转变。”在智能体工作流中,CPU侧编排时间可占总时延的50%至90%,由此推导出到2030年新增325亿至600亿美元的CPU增量市场空间,并将服务器CPU总TAM推至825亿至1100亿美元量级。
与此同时,DRAM、ABF载板、晶圆代工、存储、连接器与被动元件等环节,均将从“配角”跃升为新的瓶颈与利润池。将在2030年额外催生15至45EB的DRAM需求,规模相当于2027年全行业年供给的26%至77%。
这一判断对市场意味着:AI资本开支的受益者将从少数芯片巨头扩散至整条全球供应链,下一轮超额收益,可能更多来自那些在智能体工作流中最先成为瓶颈、且最难快速扩产的”使能环节”。随着瓶颈在不同环节迁移,AI价值链的权重分布随之改变。
从“生成”到“行动”:智能体把瓶颈从算力推向编排
生成式AI的典型工作流结构相对简单:用户请求到达后,CPU完成少量预处理,GPU负责token生成,随后返回结果。整个链路中,GPU是绝对主角,CPU仅承担辅助功能。
智能体的运作逻辑截然不同。完成一个任务,系统需要经历规划、检索、调用外部工具与API、执行、反思迭代等多个步骤,还涉及多智能体协作、权限管理、状态持久化与调度等大量“控制面”能力。大摩的核心结论是:智能体带来的不是更”重”的单次推理,而是更多步骤、更多状态、更多协调,而这些工作天然更适合CPU处理。
由此带来两个直接后果:其一,集群层面CPU与GPU的配比将系统性上升;其二,DRAM从“容量配置项”升格为“性能与吞吐的核心系统组件”。数据中心的瓶颈将越来越多地出现在内存带宽、数据搬运、互连时延与系统级协调,而非单纯的GPU算力。
CPU配比正在重估:从”1:12″走向”1:2″乃至反转
过去,”1颗CPU服务约12块GPU”曾是AI服务器的典型架构描述。但报告指出,随着智能体工作流变长、工具调用与上下文管理趋于复杂,这一比例正在快速收窄。
以NVIDIA路线图为例,更新估算显示:在Rubin平台附近,CPU与GPU的配比已接近1:2;若向Rubin Ultra等更激进形态演进,甚至可能出现2颗CPU对应1颗GPU的反转配置。即便仅从1:12改善至1:8,对超大规模部署而言,CPU的绝对需求量也将出现量级跳升。
一旦这一方向成立,CPU的需求弹性将从“跟着服务器出货走”转变为“跟着智能体复杂度走”,这意味着CPU需求的增长将更具结构性,而非仅仅是传统硬件换代周期的延续。
CPU TAM重算:2030年825亿—1100亿美元,增量来自编排
摩根士丹利采用“系统分层”方法,将智能体带来的CPU机会从传统服务器更新换代逻辑中剥离,建立三个独立分析口径:
延伸阅读:
HUDIMM DDR5内存性能初探,带宽性能腰斩近50%
IT之家 4 月 21 日消息,科技媒体 Wccftech 昨日(4 月 20 日)发布博文,测试 DDR5 HUDIM...
瑞银评智谱–“中国版Anthropic”
一家清华系AI公司,正在走一条与全球头部AI实验室高度相似的路。4月20日,瑞银Wei Xiong等分析师发布了一份近4...
月之暗面发布K2.6,杨植麟真的需要一个郭达雅
月之暗面发布了Kimi K2.6,这也是杨植麟的第一个X.6版本。虽然版本号上只加了0.1,但这不是一次普通的版本更新。...
爱奇艺急转弯要“去中心化”,做AI艺人库却被观众说“疯了”
(图源:视觉中国)蓝鲸新闻4月21日讯(记者 彭乐怡)"实拍剧不知道过多少年,会被命名为非物质文化遗产。"爱奇艺CEO龚...
