技术文章

Technical articles

当前位置:首页技术文章国展智能提供典型AI液冷服务器设计方案

国展智能提供典型AI液冷服务器设计方案

更新时间:2025-10-27点击次数:17

AI液冷服务器整体设计:·通常按照2CPU+8GPU的服务器配置设置:OAI芯片的可维护性需求,单卡GPU可支持热插拔:●GPU作为系统最大热源,集中采用液冷散热,除GPUCPU外功率器件布置空间充足,采用风冷设计;·背部设置分水器,采用更大通径的QD;

考虑到Nvidia各种规格的芯片的布置:

QD的设计与卡的功耗及其在服务器的形态密切相关;●根据算力需求,AI服务器的GPU通常密集排布,QD通常需要满足尽量小的尺寸及尽量大的流量,Nvidia的设计通常会基于UQD进行改进;

Nvidia MGX Blackwell GB200计算托盘及交换机托盘:计算托盘:2块GB200芯片在内部串联管路,外部设置1进1出UQD04盲插浮动机构,连接外部分水器;内部分液模块采用2进2出的UQD04手插产品;

交换托盘:外部设置1进1出UQD04盲插浮动机构,连接外部分水器;

Nvidia MGXBlackwell GB200 NVL4超级芯片:0SC2024超算大会上,Nvidia发布超级芯片GB200NVL4,其由2块GB200芯片叠加在一起,热功耗接近6000w

计算托盘:整个1U的计算托盘全部采用液冷架构;预计后续采用更大规格的QD浮动机构,图片展示为HP针对NVL4的测试DEMO

针对Nvidia MGX Blackwell GB200快接方案:快接设置X,Y,Z三个方向浮动量,便于服务器与背板Manifold的对中插合,简化运维●产品优秀的流量性能(04106108可选),满足该架构最高可达6000W(双节点)的散热功率;●产品的公头自带了锁紧机构,可同时满足服务器手动快接与盲插快接的技术架构;@Manifold设置对应规格的UQDB母头,母头外壳增加保护盖,安装时起阻尼缓冲作用;