集邦咨询:AI 服务器功耗剧增,液冷散热方案将逐渐普及

aixo 2024-07-31 11:53:54
算力 2024-07-31 11:53:54

快科技7月31日消息,集邦咨询发布报告称,随着AI服务器算力、功耗同步与日俱增,尤其是将在年底推出的下一代平台功耗急剧增加,液冷散热方案将逐渐普及,今年底的渗透率可达10%。

根据调查, 要到2025年才会正式大规模放量,取代现在的平台,成为高端主力,占整体高端产品的近83%。

GPU_gpu算力平台_gpu租用

B200单颗芯片的功耗就高达1000W,一颗Grace CPU和两颗 GPU组成的超级芯片GB200更是恐怖的2700W。

回顾历史,家族的H100、H200 GPU功耗都是700W,H20只需要400W,Grace+超级芯片则是1000W。

GPU_gpu算力平台_gpu租用

HGX服务器每台预装8颗GPU,NVL36、NVL72服务器每台36颗、72颗GPU,整体功耗将分别达到70千瓦、140千瓦。

据悉,NVL36服务器2024年底先上市,初期以风冷、液冷并行方案为主;NVL72 2025年跟进,直接优先上液冷,整体设计和散热都复杂得多。

预计,GB200折算NVL36的出货量在2025年预计可达6万台, GPU的总出货量有望达到210-220万颗。

gpu算力平台_GPU_gpu租用

服务器液冷主要分为水冷板(Cold Plate)、冷却分配系统( Unit, CDU)、分歧管()、快接头(Quick , QD)、风扇背门(Rear Door Heat , RDHx)等五大零部件。

其中,CDU是最关键的部分,负责在整个系统内调节冷夜的流量,确保温度可控。

针对 AI服务器方案,维谛技术()是主力的CDU供应商,奇鋐、双鸿、台达电、等也在测试验证。

gpu算力平台_gpu租用_GPU

GPU