气冷、液冷并行方案知足更高散热需求

根据TrendForce集邦咨询调查,NVIDIA Blackwell平台将于2025年正式放量,取代既有的Hopper平台、成为NVIDIA高端GPU(图形处理器)主力方案,占整体高端产品近83%。
在B200和GB200等追求高效能的AI Server机种,单颗GPU功耗可达1,000W以上。
HGX机种每台装载8颗GPU,NVL机种每柜达36颗或72颗GPU,显著的能耗将促进AI Server散热液冷供应链的发展。

TrendForce集邦咨询表示,做事器芯片的热设计功耗(Thermal Design Power, TDP)持续提高,如B200芯片的TDP将达1,000W,传统气冷散热方案不敷以知足需求;GB200 NVL36及NVL72整机柜的TDP乃至将高达70kW及近140kW,须要搭配液冷方案方以有效办理散热问题。

据TrendForce集邦咨询理解, GB200 NVL36架构初期将以气冷、液冷并行方案为主;NVL72因有更高散热能力需求,原则上优先利用液冷方案。

NVIDIA Blackwell推动散热需求预估2024岁尾液冷筹划渗透率达10

不雅观察现行GB200机柜系统液冷散热供应链,紧张可分水冷板(Cold Plate)、冷却分配系统(Coolant Distribution Unit, CDU)、不合管(Manifold)、快接头(Quick Disconnect, QD)和风扇背门(Rear Door Heat Exchanger, RDHx)等五大零部件。

TrendForce集邦咨询指出,CDU为个中的关键系统,卖力调节冷却剂的流量至全体系统,确保机柜温度掌握在预设的TDP范围内。
TrendForce集邦咨询不雅观察,目前针对NVIDIA AI方案,以Vertiv(维谛技能)为主力CDU供应商,奇鋐、双鸿、台达电和CoolIT等持续测试验证中。

2025年GB200出货量估可达6万柜,匆匆Blackwell平台成市场主流、将占NVIDIA高端GPU逾8成

根据TrendForce集邦咨询不雅观察,2025年NVIDIA将以HGX、GB200 Rack及MGX等多元组态AI Server,分攻CSPs及企业型客户,预估这三个机种的出货比例约为5:4:1。
HGX平台可较无缝对接现有Hopper平台设计,使CSPs或大型企业客户能迅速采取。
GB200整柜AI Sever方案将以超大型CSPs为主打,TrendForce集邦咨询预期NVIDIA将于2024年底先导入NVL36组态,以便快速进入市场。
NVL72因其AI Server整体设计及散热系统较为繁芜,估量将于2025年推出。

TrendForce集邦咨询表示,在NVIDIA大力扩展CSPs客群的情形下,预估2025年GB200折算NVL36合计出货数量可望达6万柜,而GB200的Blackwell GPU用量可望达210-220万颗。

然而,终端客户采取GB200 Rack的过程仍有几项变量。
TrendForce集邦咨询指出,NVL72需较完善的液冷散热方案,难度较高。
而液冷机柜设计较适宜新建数据中央,但会牵扯地皮建物方案等繁芜程序。
此外,CSPs可能不肯望被单一供应商绑住规格,可能会选择HGX或MGX等搭载x86 CPU架构的机种,或扩大自研ASIC(专用集成电路)AI Server根本举动步伐,以应对更低本钱或特定AI运用处景。