开云app 英伟达称 Blackwell 每兆瓦朦拢量是 Hopper 的 50 倍
发布日期:2026-02-19 12:11 点击次数:91
IT 之家 2 月 18 日音问,英伟达于 2 月 16 日发布博文,晓示其 Blackwell Ultra AI 架构(GB300 NVL72)在能效与资本上斥逐显赫冲破,通过 DeepSeek-R1 模子测试,比较前代 Hopper GPU,其每兆瓦朦拢量进步 50 倍,百万 tokens 资本缩短至 35 分之一。

此外,英伟达还预报了下一代 Rubin 平台,展望其每兆瓦朦拢量将比 Blackwell 再进步 10 倍,进一步推进 AI 基础步调的演进。
IT 之家注:每兆瓦朦拢量(Tokens / Watt)是意象 AI 芯片能效比的中枢概念,指每破钞一瓦特电力能管束若干 Token(文本单元)。数值越高,代表能效越好,运营资本越低。
英伟达在博文中指出,性能飞跃的关键,是升级时刻架构。Blackwell Ultra 通过 NVLink 时刻,将 72 个 GPU 连气儿成协调的琢磨单元,开云app互联带宽高达 130 TB/s,远超 Hopper 时间的 8 芯片遐想。此外,全新的 NVFP4 精度相貌合营极致的协同遐想结构,进一步自由了其在朦拢性能上的统率地位。

AI 推理资本方面,比较 Hopper 架构,新平台将每百万 Token 的资本削减至 35 分之一;即便与上一代 Blackwell(GB200)比较,GB300 在长高下文任务中的 Token 资本也缩短至 1.5 分之一,细心力机制管束速率翻倍,适配代码库珍贵等高负载场景。
{jz:field.toptypename/}
OpenRouter 的《推理情状评释》指出,与软件编程关联的 AI 查询量在夙昔一年中激增,占比从 11% 攀升至约 50%。这类哄骗经常需要 AI 代理在多步职责流中保捏及时反映,并具备跨代码库推理的长高下文管束才调。
英伟达为应酬这一挑战,通过 TensorRT-LLM、Dynamo 等团队的捏续优化,进一步进步了搀和群众模子(MoE)的推理朦拢量。举例,TensorRT-LLM 库的纠正,让 GB200 在低延伸职责负载上的性能在短短四个月内进步了 5 倍。

备案号: