• 中文版
  • English
首页 新闻资讯 一文看懂英伟达AI算力产品,从A100、GB2芯片、NVL到超节点......

一文看懂英伟达AI算力产品,从A100、GB2芯片、NVL到超节点......

时间:2025年09月29日

进入2025AI 已经成为近几年最炙手可热的话题,各大企业的“百模大战”,背后都离不开一个关键角色——NVIDIA(英伟达)。这家公司几乎提供了全球 AI 训练的算力供应,而它的 GPU 也被戏称为“算力黄金”,曾经也出现过一卡难求的景象。


所以我们最近几年总是会在各类互联网平台上看到一系列的英伟达的各类产品简称,例如A100、H100、B100、B200、GB200、NVLINK、CUDA…… 这些到底是显卡?还是芯片?抑或是一整台服务器?


接下来,我们就用最直观的方式,把英伟达的不分产品和技术名字逐一拆解,让你在看懂“英伟达算力宇宙”。




01

算力芯片A100/H100/B200


最常见的的应该就是A100/H100/B200,这些呢都是AI算力卡,也就是俗称的GPU型号。


微信图片_2025-09-29_095943_518.png

H100


英伟达 GPU 芯片每隔 2~3 年会推出一个新的架构(Architecture),架构决定了 GPU 的核心计算单元设计、指令优化和能效表现。不同架构下的 GPU 通常会用不同的字母命名。这些字母的来源是著名的科学家,例如麦克斯韦、开普勒以及安培都是大家熟知的物理学家。


1.jpg


所以产品命名规则:字母 = 架构代号、数字 = 定位;通常是基于某个架构的卡一般都以首字母开头(不包含游戏显卡)。例如NVIDIA H100/200,就是品牌名称NVIDIA+Hopper架构首字母+等级。那么H200就是升级版。这几年我们最熟悉的就是A100/H100/H200/B100/B200的名称。到这相信大家对英伟达的GPU芯片有了简单的初步认识。

9月英伟达发布了专为AI推理设计的Rubin CPX芯片,计划于2026年推出。与Blackwell架构的GB相比,Rubin CPX在TensorCore算力上实现了约10倍的提升,即使与单颗Rubin Die(50 PFLOPS)相比也具备显著竞争力。


微信图片_2025-09-29_095950_495.png

Rubin CPX



02

超级芯片——GB200/GB300


说完芯片,GB200/300应该也是非常常见的简称,这又是什么芯片。它们并不是单纯的一颗 GPU,而是英伟达近年来主打的 超级芯片(Super chip)


什么是超级芯片?简单理解:传统计算系统里,CPU 负责通用计算,GPU 负责并行加速;但在 AI 训练中,数据需要频繁在 CPU 和 GPU 之间传输,容易成为瓶颈;英伟达的做法是:把 CPU 和 GPU 直接放在同一个封装里,用高速互联打通,减少数据搬运的延迟,这就是“超级芯片”的概念。


例如GB200:Grace CPU + Blackwell GPU:

Grace CPU:英伟达自研的高性能 ARM CPU,专为数据中心和 AI 设计。

Blackwell GPU:最新一代 AI 加速核心。

GB200 Grace CPU + Blackwell GPU 的深度融合,通过英伟达的NVLink链接GPU和CPU形成一个超级运算单元。


微信图片_2025-09-29_095954_233.png

GB200


类似的如GH200,就是Grace CPU和Hopper GPU的组合搭配。GB200/GB300 已经不是传统意义上的“显卡”,而是向 AI 数据中心的超级算力模组。它们让 CPU 与 GPU 融为一体,专为训练数千亿、甚至万亿参数的大模型而生。




03

NV32、NV76、Computer Tray


除此芯片之外,在服务器领域NV32  NV76 Computer Tray 又是几个大家常见的关键词。


什么是Computer Tray呢?简单理解它是服务器机架中可抽拉的“托盘”,上面安装了 GPU、CPU或整块超级芯片、电源、存储、液冷模组等等部件,如下图所示。


微信图片_2025-09-29_095957_407.png

computer Tray

NV36和NV72,这个“NV”就是我们上文提到的NVLink的简写。要解释NV36和NV72这个含义首先我们一起看看两个关键词“DGX”和“NVLink”


(1)DGX:全称是Deep Learning GPU Training System中文是专为企业级AI设计的平台;

(2)NVLINK是英伟达推出的GPU卡间互连技术,主要是取代PCIe,就是我们刚才提到的GPU和CPU直接互连的技术;NVLINK把很多的GPU连起来,组成看似很多计算机,但实际上属于一个逻辑节点(超节点)的平台;

所以我们我们经常听说GB200 NV72的全称其实是DGX GB200 NVL72,以GB200为例看GB200 NV36和NV72的区别:


微信图片_2025-09-29_100000_159.png

GB200 NV36架构(图源:Semi analysis)

NVL36:包含18个GB200 Computer Tray,每个Computer Tray中只有1个GB200组合,一共为18个Grace CPU和36个B200 GPU。 每个计算托盘高度为2U,包含2个Bianca板,每个NV Switch托盘配备两个28.8Tb/s的NVSwitch5 ASIC芯片,每个芯片向后朝向背板与向前朝向 前板都提供14.4Tb/s的带宽,每个NV Switch托盘有18个1.6T双端口OSFP插槽,水平连接到一对NVL36机架。


微信图片_2025-09-29_100002_222.png

GB200 NV72架构(图源:Semi analysis)

NVL72:包含18个GB200 Compute Tray,每个compute tray 包含2个GB200组合,因此包含36个Grace CPU和72个GPU。对应的显存为72 x 192GB = 13.8TB,对应的Fast Memory为18 x 1.7TB = 30.6TB。此外,还包含9个NV Switch Tray。每个计算托盘高度为1U,包含2个Bianca板, NV Switch托盘配备两个28.8Tb/s的NVSwitch5 ASIC。


2.jpg


8台DGX GB200 NVL72可以组成一个由576个GPU构成的SuperPod,这就是我们有一个常见的关键词“超节点”

微信图片_2025-09-29_100004_291.png




04

其它


除此之外呢英伟达还有完成的软件生态护城河,以及相关的硬件产品,小编就不完全罗列了。除了我们重点介绍的 GPU 芯片、超级芯片以及数据中心液冷模块之外,英伟达的产品矩阵还非常丰富。比如:

CUDA:开发者用来编写 GPU 加速程序的计算平台和 API。

HGX 系列:面向企业级 AI 训练和推理的整机解决方案。

Spectrum 与 BlueField 系列:高速网络与数据处理芯片,提升数据中心互联效率。

NVSwitch / NVLink:GPU 间高速互联技术(已经在前文提到)。

这些产品共同组成了英伟达的“算力宇宙”,支撑从单卡 GPU 到超级算力集群的端到端计算需求。即便不深入了解每个型号,也能看到它们在 AI 时代的重要地位。


微信图片_2025-09-29_100006_700.png