Deepseek R1 推理实测:4 块英伟达 GB300 能干 16 块 H100 的活
IT之家 8 月 27 日消息,科技媒体 WccfTech 昨日(8 月 26 日)发布博文,报道称 CoreWeave 最新测试显示,以 DeepSeek R1 推理模型实测,4 块英伟达 Blackwell 架构 GB300 芯片就能完成原需 16 块 H100 的任务,单卡吞吐量提升 6 倍。
IT之家援引博文介绍,CoreWeave 使用 Deepseek R1 推理模型,对比评估英伟达 Blackwell 架构 GB300 NVL72 和上一代 H100 GPU 的差别。归功于英伟达升级架构,增强内存和带宽,测试结果显示,GB300 在仅使用 4 块 GPU 的情况下,即可完成原本需要 16 块 H100 才能运行的任务。
GB300 NVL72 平台支持高达 37TB 的内存容量(最高可达 40TB),并配备每秒 130TB 的内存带宽。该平台为减少 GPU 间数据分割次数,采用 4 路并行设计,并通过 NVLink 和 NVSwitch 高速互连提升通信效率。
CoreWeave 指出,这不仅是 FLOPs 算力的提升,更是系统架构在实际业务场景下的效率跃迁。对于需要运行复杂模型的企业客户,GB300 NVL72 提供了更高的扩展性和更低的延迟,帮助他们更快、更经济地部署和运行 AI 服务。
延伸阅读:
昨晚,谷歌悄悄发了“新模型”,为多模态智能应用铺平了道路
文 | 霞光AI实验室,作者|渡川就在昨晚,谷歌发了首个原生多模态嵌入模型Gemini Embedding 2。跟以往的...
OpenClaw刚装上,Token焦虑就来了?
文 | 霞光AI实验室,作者|刘宇最近,全球AI圈都在被一个词震撼——OpenClaw(龙虾)。OpenClaw有多热?...
“偷数据”“删文件”“泄隐私”……一文看清“龙虾”热潮背后的隐患
当前,以龙虾为图标的开源AI智能体OpenClaw(俗称“龙虾”)火得一塌糊涂。据称,它拥有整合大模型的能力,可以接管鼠...
