数据中心迈入液冷时代

编译自eetimes
戴尔和超微表示,通过直接在机架上的 GPU 上使用液体冷却,他们可以将数据中心的功耗降低三分之一。机架供应商告诉《EE Times》,通过取代当今数据中心的主要解决方案空气冷却,液体冷却将使数据中心运营商能够将更多的精力集中在计算上,而不是空调上。

本文来自微信公众号“半导体产业纵横(ID:ICVIEWS)”,编译自eetimes。

目前典型数据中心所用电力的46%用于空气冷却。

戴尔和超微表示,通过直接在机架上的GPU上使用液体冷却,他们可以将数据中心的功耗降低三分之一。机架供应商告诉《EE Times》,通过取代当今数据中心的主要解决方案空气冷却,液体冷却将使数据中心运营商能够将更多的精力集中在计算上,而不是空调上。

人工智能正在推动需求。就在世界各地新建的超大型数据中心开始给电网带来压力之际,更高的能源效率前景也随之而来。

戴尔和Supermicro是高端数据中心液冷机架的主要供应商,它们一直在提高产量以满足预期的激增需求。Supermicro表示,它每月可在全球范围内交付一千多个机架。

Supermicro技术和AI高级副总裁Vik Malyala告诉EE Times:“我们可以了解我们的技术合作伙伴将推出哪些技术,无论是英特尔、AMD还是Nvidia,以及像博通和英特尔这样的网络公司。我们与他们合作,然后查看他们的路线图。”

Nvidia等GPU制造商为冷板和散热器创建了参考设计。戴尔和Supermicro密切合作以采用这些设计。

戴尔工程技术专家Tim Shedd告诉《EE Times》:“我们希望确保我们设计的任何产品都能得到芯片制造商的支持,并得到他们的保证和支持。我们添加了多年来在行业中积累的专有功能,例如专有泄漏感应技术,以保护客户和服务器。”

Supermicro表示,其冷却解决方案包含冷板设计的专有信息。Malyala补充说,数据中心运营商一直不愿意放弃对空气冷却的依赖,但他预计这种状况将会改变。

“随着数据中心部署规模越来越大,我们知道效率将成为一个非常关键的因素,”玛利亚拉说。“电力消耗是一场噩梦。”

戴尔估计,目前典型数据中心所用电力的46%用于空气冷却。Shedd表示:“通过部署液体冷却,我们可以将能耗降低到10%或更低,而不必在所有东西上都安装冷却板,而是使用智能混合技术:只需空气和液体冷却。”他补充说,降低能耗的关键是减少数据中心的空气压缩机数量。

如今,大多数数据中心都采用从设施周边吹向服务器的空气进行冷却。服务器上的风扇提供额外的冷却。

“我需要相当冷的水,通常约为45°F,才能充分冷却空气,”Shedd说道。“这意味着一年中的大部分时间,我都需要压缩机和制冷来冷却水。使用液体冷却,对于使用冷板和液体冷却的数据中心部分,我通常可以使用90°F的水,甚至100°F的水来进行冷却。现在,在大多数气候条件下,我几乎不需要压缩机,因此节省的能源非常可观。”

市场研究公司Dell'Oro在7月份的新闻稿中表示,液体冷却正在从一个小众市场转变为主流业务,由于对热管理的需求增加,到2030年其价值将达到150亿美元。

液冷系统出货量将增长20%

Malyala表示,超微预计今年支持人工智能基础设施(包括液体冷却)的系统的出货量增长率将至少达到20%。他说:“我们正在考察许多数据中心,我们意识到其中许多数据中心效率极低,因为建设基础设施的人并不是支付制冷费用的人。”

Shedd指出,需求是由1,000瓦GPU的进步以及你可能想不到的地方对AI的需求所推动的。“我们必须将AI带入数据,而不是将数据带入处理能力。我不一定想将数据发送到云端,因为我担心安全问题。政府不想将他们的数据(尤其是这种敏感、经过处理、有用的数据)发送到外面。那不是10,000个GPU的数据中心;那是一个机架。”

戴尔发现了液体冷却在新领域的应用案例。“我们过去主要关注高性能计算和一些非常具体的商业垂直行业,比如银行业和其他真正需要密集计算的领域,”Shedd说道。“现在我们看到用例细化到工厂中的一个机架,他们希望实时从生产线收集数据,处理数据并做出决策。这可能需要在该机架中使用液体冷却。”

Malyala表示,边缘安全是液冷机架供应商的一个不断增长的业务。“我们谈论的是我们的每部手机,”他说。“我们如何在曾经的中心位置有效地保证它们的安全?实时威胁检测和保护正在发生——这正在向边缘靠拢。”

关掉空调

通过将数据中心甚至机架转换为液体冷却,应该可以“关闭空调,或者至少以更高效的方式运行它们”,Malyala说。“你说的是40%的节能。这基本上意味着你可以在相同的空间内放置40%的额外基础设施。”

戴尔还将液体冷却的节能视为向客户销售更多机架和提高数据中心处理密度的一种方式。

能源节省的效果还可能进一步扩大。新加坡供应商Sustainable Metal Cloud 8月份向CNBC表示,其浸入式冷却技术的安装成本比液体解决方案低28%,且可将能耗降低高达50%。

在现有数据中心安装液体冷却需要对设施内部进行大量改造,而这正是客户感到畏惧的。“对于客户,我们需要根据他们的实际情况来满足他们的需求,”Shedd说。“有些客户目前无法部署液体冷却。安装所有管道和水管实在是太麻烦了。所以我们与他们合作。我们不断提高服务器风扇的效率。我们不断努力让客户使用更高的温度,这样他们就可以减少使用压缩机。”

戴尔期待液体冷却领域进一步创新。未来处理器的热密度将超过燃气喷灯的火焰。首席运营官杰夫·克拉克(Jeff Clarke)在9月份的LinkedIn博客中表示,戴尔正在改变冷却板,以管理最具挑战性的处理器功能,而不会影响数据中心的能源效率。他说道:“我们正在为未来打造新的集成机架,以便每个机架能够承受超过400 kW的电力和冷却。”

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论