NVIDIA 发布了最新的 Blackwell GB200 NVL4 解决方案,集成四个 GPU 和两个 GPU,构成一个强大的 HPC 和 AI 解决方案。
NVIDIA 通过强大的硬件解决方案加速 AI 发展:Blackwell GB200 NVL4 和 Hopper H200 NVL
作为 SC24 发布的一部分,NVIDIA 正在推出两款全新的硬件平台,一款基于现有的 Hopper 系列,另一款由最新的 Blackwell 系列驱动。这两种解决方案旨在为企业服务器提供动力,加速 HPC 和 AI 工作负载。
首先来看 NVIDIA H200 NVL,该公司现在确认这些基于 PCIe 的 Hopper 卡的普遍可用性,这些卡可以通过 NVLINK 域连接最多 4 个 GPU,提供比标准 PCIe 解决方案快七倍的带宽。该公司表示,H200 NVL 解决方案可以适应任何数据中心,并提供一系列灵活的服务器配置,优化用于混合 HPC 和 AI 工作负载。
在规格方面,Hopper H200 NVL 解决方案提供 1.5 倍的 HBM 内存,1.7 倍的 LLM 推理性能,以及 1.3 倍的 HPC 性能。您将获得 114 个 SM,总共 14,592 个 CUDA 核心,456 个张量核心,以及高达 3 TFLOPs 的 FP8(FP16 累计)性能。该 GPU 配备 80 Gb HBM2e 内存,通过 5120 位接口配置,TDP 为 350 瓦。
接下来是 Blackwell,我们首次展示了 NVIDIA GB200 NVL4,这是一个全新的模块,实际上是原始 GB200 Grace Blackwell 超级芯片 AI 解决方案的更大扩展。GB200 NVL4 模块将 CPU 和 GPU 能力翻倍,并增加了内存。
您将获得两个配置在更大主板上的 Blackwell GB200 GPU,以及两个 Grace CPU。该模块被设计为单服务器解决方案,具有 4-GPU NVLINK 域和 1.3T 的一致性内存。在性能方面,该模块在仿真中将提供 2.2 倍的提升,在训练和推理性能上提供 1.8 倍的提升。NVIDIA 不断增长的合作伙伴名单将在未来几个月内提供 NVL4 解决方案。
至于 TDP,由于超级芯片模块约为 2700W,我们可以预期更大的 GB200 NVL4 解决方案的功耗接近 6KW。可以明显看到 NVIDIA 在加速 AI 计算领域所做的努力。
该公司最近在 MLPerf v4.1 中发布了训练和推理的世界纪录,不仅 Blackwell 表现出色,Hopper 也在持续优化中变得更好。该公司还将其 AI 路线图加速到一年一次的节奏,并计划在未来几年推出多项新基础设施,如 Blackwell Ultra 和 Rubin。