英伟达发布超长上下文推理芯片Rubin CPX 算力效率拉爆当前旗舰

财联社9月10日讯(编辑 史正丞)全球人工智能算力芯片龙头英伟达周二宣布,推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。

英伟达CEO黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的模型而构建的芯片。

需要说明的是,Rubin就是英伟达将在明年发售的下一代顶级算力芯片,所以基于Rubin的CPX预计也要到2026年底出货。下一代英伟达旗舰AI服务器的全称叫做NVIDIA Vera Rubin NVL144 CPX——集成36个Vera CPU、144块Rubin GPU和144块Rubin CPX GPU。

(NVIDIA Vera Rubin NVL144 CPX机架与托盘,来源:公司博客)

英伟达透露,搭载Rubin CPX的Rubin机架在处理大上下文窗口时的性能,能比当前旗舰机架GB300 NVL72高出最多6.5倍。

据悉,下一代旗舰机架将提供8 exaFLOPs的NVFP4算力,比GB300 NVL72高出7.5倍。同时单个机架就能提供100 TB的高速内存和1.7 PB/s的内存带宽。

言归正传,英伟达之所以要在Rubin GPU边上再配一块Rubin CPX GPU,自然是为了显著提升数据中心的算力效率——用户购买英伟达的芯片将能赚到更多的钱。英伟达表示,部署价值1亿美元的新芯片,将能为客户带来50亿美元的收入。

为何需要两个GPU?

作为行业首创之举,英伟达的新品在硬件层面上分拆了人工智能推理的计算负载。

英伟达介绍称,推理过程包括两个截然不同的阶段:上下文阶段与生成阶段,两者对基础设施的要求本质上完全不同。

上下文阶段属于计算受限(compute-bound),需要高吞吐量的处理能力来摄取并分析大量输入数据,从而生成首个输出token。相反,生成阶段则属于内存带宽受限(memory bandwidth-bound),依赖高速的内存传输和高带宽互联(如 NVLink),以维持逐个token的输出性能。

当前顶级的GPU都是为了内存和网络限制的生成阶段设计,配备昂贵的HBM内存,然而在解码阶段并不需要这些内存。因此,通过分离式处理这两个阶段,并针对性地优化计算与内存资源,将显著提升算力的利用率。

据悉,Rubin CPX专门针对“数百万tokens”级别的长上下文性能进行优化,具备30 petaFLOPs的NVFP4算力、128GB GDDR7内存。

英伟达估计,大约有20%的AI应用会“坐等”首个token出现。例如解码10万行代码可能需要5-10分钟。而多帧、多秒的视频,预处理和逐帧嵌入会迅速增加延迟,这也是为什么当前的视频大模型通常仅用于制作短片。

英伟达计划以两种形式提供Rubin CPX,一种是与Vera Rubin装在同一个托盘上。对于已经下单NVL144的用户,英伟达也会单独出售一整个机架的CPX芯片,数量正好匹配Rubin机架。

暂无介绍....

延伸阅读:

香港中文大学DraCo让机器学会"打草稿再完善"的创作方式

这项由香港中文大学MMLab实验室的姜东志、张人瑞等研究团队开发的技术发表于2025年12月,论文编号为arXiv:25...

娱乐大事件
2025年12月11日
我国科学家揭示白羽肉鸡“抗病密码”

记者从中国农业科学院获悉,中国农业科学院北京畜牧兽医研究所鸡遗传育种创新团队近日通过整合多组学数据,系统筛选了白羽肉鸡与...

摸鱼小能手
2025年12月11日
腾讯实验室发布智能机器人导航突破:让AI像人类一样理解空间

这项由腾讯AI实验室的王正成、林子川、杨艺君、傅浩波、叶德恒等研究人员共同完成的研究,发表于2024年12月的arXiv...

八卦小灵通
2025年12月11日
商务部:加大AI、大数据、云计算等技术应用 推动二手商品流通线上线下深度融合

智通财经APP获悉,12月11日,商务部召开例行新闻发布会。商务部新闻发言人何亚东表示,近年来,我国二手商品市场规模持续...

摸鱼小能手
2025年12月11日
小米米家首款自产中央空调亮相武汉智能家电工厂,双风轮双出风

IT之家 12 月 11 日消息,小米首座大家电工厂 —— 武汉小米智能家电工厂一期已竣工投产,小米集团合伙人 / 总裁...

娱乐大事件
2025年12月11日
🧟 AI 助手