为了减少数据中心的碳足迹,正在从狂热的 pc 建造人群中记录下来。该公司在其 computex 2022 主题演讲中宣布了两款新的液冷 ,但它们不会进入您的下一台游戏 pc。
相反,h100(今年早些时候在 gtc 上宣布)和 a100 gpu 将作为 hgx 服务器机架的一部分在年底前发货。液体冷却对于超级计算机世界来说并不新鲜,但主流数据中心服务器传统上无法使用这种高效的冷却方法(也就是说,并非没有尝试将游戏 gpu 安装到服务器中)。
除了 hgx 服务器机架,nvidia 还将提供 h100 和 a100 的液冷版本作为插槽式 pcie 卡。a100 将于 2022 年下半年推出,h100 将于 2023 年初推出。英伟达表示,“至少有十几个”系统制造商将在今年年底前推出这些 gpu,包括华硕、华擎和华擎的选件。技嘉。
数据中心约占全球总用电量的 1%,其中近一半的电量仅用于冷却数据中心的所有设备。与传统的空气冷却相反,nvidia 表示其新的液冷卡可以将功耗降低约 30%,同时将机架空间减少 66%。
a100 和 h100 与您在液冷游戏 gpu 上找到的一体化系统不同,而是使用与处理单元本身的直接液体连接。除了馈线之外的所有东西都隐藏在 gpu 外壳中,它本身只占用一个 pcie 插槽(而不是风冷版本的两个)。
数据中心通过查看电源使用效率 (pue) 来衡量能源使用情况——本质上是数据中心消耗的电量与计算使用的电量之间的比率。借助风冷数据中心,equinix 的 pue 约为 1.6。英伟达新 gpu 的液体冷却将其降至 1.15,这非常接近数据中心的 1.0 pue 目标。
nvidia 表示,除了提高能源效率外,液体冷却还有助于节约用水。该公司表示,每年在数据中心蒸发数百万加仑的水,以保持风冷系统的运行。根据 equinix zac smith 边缘基础设施负责人的说法,液体冷却使水得以再循环,将“废物变成资产”。
尽管这些卡不会出现在由谷歌、微软和亚马逊运营的大型数据中心中——它们可能已经在使用液体冷却——但这并不意味着它们不会产生影响。银行、医疗机构和 equinix 等数据中心提供商破坏了当今大部分数据中心,他们都可以从液冷 gpu 中受益。
英伟达表示,这也只是碳中和数据中心之旅的开始。在新闻稿中,英伟达高级产品营销经理 joe delaere 写道,该公司计划“在可预见的未来支持我们的高性能数据中心 gpu 和英伟达 hgx 平台中的液体冷却。”