浸没式液冷可移动集装箱式高密度绿色数据中心

本项目专注单相浸没式液态散热技术的研发与创新,采用兰洋自研导热液、密封结构、智能温控换热系统等,并利用全浸没式液冷集装箱户外部署,构建了集土建地基、服务器运行环境、供配电及UPS系统、网络系统、散热系统、动环监控系统监测、消防系统及智能运维系统于一体的综合性产品解决方案,实现低能耗、高热流密度和多模块化快速部署。

本项目专注单相浸没式液态散热技术的研发与创新,采用兰洋自研导热液、密封结构、智能温控换热系统等,并利用全浸没式液冷集装箱户外部署,构建了集土建地基、服务器运行环境、供配电及UPS系统、网络系统、散热系统、动环监控系统监测、消防系统及智能运维系统于一体的综合性产品解决方案,实现低能耗、高热流密度和多模块化快速部署。

项目共240台服务器,各配置8张英伟达4090GPU显卡共1920张,整体发热量1200kW。已完成40英尺集装箱内320U的高密度部署,80台服务器支持最大550 kW的计算功耗,实现全年运行PUE值1.1,局部运行PUE值低至1.03。每年节电600万kW·h,展现浸没式液冷集装箱式数据中心卓越能效表现,对于提升能源和空间利用率,大幅缩短数据中心建设周期有重要意义。

一、实施背景

近年来我国数据中心产业一直保持30%以上的增速,高耗能问题日益凸显。大型数据中心飞速发展和空间载体不足加快了单机柜功率密度的迅猛提升,预计2025年平均功率可达25kW/架,快速增长的功率密度对散热提出了更高要求。践行国家“双碳战略”,降低散热能耗、提高冷却能力,建设绿色数据中心已成当务之急。同时由于AI智能的发展和普及,众多行业对于算力的需求急速增多,使高密度集成性高算力的服务器需求量飞速增长,但是高算力设备也意味着高能耗,高密度所带来的解热难等卡脖子问题,大量需求伴随着部署周期和适配性的要求提高,而本项目的实施部署为数据中心降低能耗、提高密度、缩短周期和增强适配性提供了优异的液冷散热解决方案。

目前,传统数据中心服务器散热方式仍以风冷为主,而随着单机柜功率密度的提升,传统的风冷不足以应对数据处理需求急剧增长和能效要求日益严苛的现状。兰洋(宁波)科技有限公司以海内外人才团队为基础,围绕数据中心大量数据算力、运力、存力所带来的高能耗及高热流密度散热的难题,以研发高性能液冷热管理技术和先进节能液冷装置为攻关方向,通过浸没式液冷散热解决方案的进一步规模化部署与示范,推进助力新型高密度绿色数据中心的改造与建设。

针对此项目的浸没式液冷集装箱式散热系统装置和同步完成的多项相关专利及标准技术规范,推动了液冷行业的技术发展。支撑了新技术、新工艺的应用推广,加快了科技进步成果转化进程。项目不仅在高效散热和能效利用方面达到了行业领先水平,也在系统可靠性、安全性和扩展性方面设立了新的标准,为液冷数据中心规模性推广构筑核心基础。

此项目应用的核心技术,以高效率低能耗的液冷散热方式解决高热流密度换热难的卡脖子技术问题,实现释放超算/智算芯片的极限算力(完成120w/cm²以上的高热流密度的散热能力,达到国际领先水平)。助力新建液冷算力中心高效运营和节能减排,同时带动地方存量数据中心的迭代升级。

二、建设内容

技术方案:此项目为浸没式液冷可移动集装箱式高密度绿色数据中心,在当前数据处理需求急剧增长和能效要求日益严苛的背景下,提供了一个创新且高效的解决方案。项目共实现1200kW功耗支持,部署1920张4090图形处理单元(Graphics Processing Unit以下简称GPU)显卡的算力需求。一期工程已完成部署400kW功耗的服务器,支撑640张显卡的运算能力,这一阶段的完成标志着项目迈向了预定目标的重要一步。项目采用自主研发的液冷材料和浸没式液冷散热系统,不仅有效解决了高密度散热难题,还通过成熟的散热系统设计,确保了整体散热效率和可靠性。此外,采用一体式设计的集装箱模块化部署方式,显著缩短了部署周期,同时具备优异的可扩展性和灵活性,可根据实际需求快速进行扩容。本项目一期已完成40英尺集装箱内320U的高密度容量,支持最大550 kW的计算功耗,80台服务器。实现全年运行电力使用效率(Power Usage Effectiveness以下简称PUE)值1.1,局部运行PUE值(pPUE)低至1.03;液体温度43±2°C;服务器芯片平均温度65±2°C(以上数据在室外温度约30℃时采集)。该项目既解决了高热流密度散热温度,又有卓越的能效表现,其中突出特点包括:

1、模块化设计,结构紧凑:多元化模块结构部署,大幅缩短实施周期,灵活扩充。

2、自研系列导热液,安全可靠,使用寿命长:自研液冷工质具有更高的热交换效率,拥有8—10年使用寿命,为散热系统长期稳定运行提供保障。

3、完善的预警系统:基于大量如温度、压力、流量等实际运行数据,结合自研算法,构成有效前置预警机制,提前预判各核心零部件运行状态,大幅降低系统实际故障风险。

4、智能控制与供电切换功能:系统能根据需求自动切换工作模式和供电模式,增加用户使用的安全性。

5、室外部署:不占用室内空间,室外环境兼容性强,动环、安防、照明和监控等功能集成全面。

项目整体体现了在数据中心设计与实施领域的创新思维和前沿技术的应用。它为迫切需要高效散热解决方案且空间有限的数据处理环境提供了一个理想的选择,同时也确保了系统的可靠性和扩展性。

项目的核心模块组成部分,包括一次侧制冷模块、冷却分配单元(Cooling Distribution Unit以下简称CDU)液冷分配模块和二次侧换热模块。以40尺标准集装箱为基础承载平台,其顶部和前后空间可依据情况进行灵活部署,本项目根据客户需求,CDU采用1+1冗余设计,同时采用了板壳结合的换热方式,进一步降低了散热总功耗,确保了散热系统连续稳定的运行能力。

集装箱式数据中心不仅具有高度的可移动性,其标准化设计更有利于规模化应用。

通过兰洋科技针对此项目的方案设计和技术应用,项目不仅在高效散热和能效利用方面达到了行业领先水平,也在系统可靠性、安全性和扩展性方面建立了新的标准。不仅为中国联通强大的数据处理能力提供了支撑,也为整个行业展示了如何在满足日益增长的数据处理需求的同时,实现能源使用的优化和环境影响的最小化。

中国联通浸没式液冷可移动高密度绿色数据中心

三、实施效果

围绕服务器超级运算所带来的高能耗及高热流密度散热的难题和能效利用率较低的问题,结合中国联通室外布置及可移动部署等需求,以研发新型散热技术为攻关方向,完成浸没式液冷可移动集装箱式高密度绿色数据中心部署,达成了可移动且部署周期短,能效利用率高的目标。

252U服务器部署后30天内平均温度数据,其中中央处理器(Central Processing Unit以下简称CPU)平均温度基本稳定在62±2℃以内,GPU平均温度基本稳定在61±2℃以内,两种硬件之间的平均温差约为4℃。

由于配备了8张4090显卡,服务器能够同时处理多个计算任务,并通过利用多个计算核心来加速计算过程。这种并行处理能力使得服务器在处理大规模数据和复杂计算任务时具有显著优势,能够大幅提高计算速度和处理效率。

其次,该服务器支持多种深度学习框架和算法,如TensorFlow、PyTorch等。这使得开发者能够轻松地将各种应用部署到服务器上,并利用其强大的计算能力进行高效推理和训练。无论是图像识别、自然语言处理还是其他深度学习应用,该服务器都能提供出色的性能表现。

经过全面部署与实施,本项目所达到的最大承载功耗为1200kW,体现了浸没式液冷技术高效与能源节约的紧密结合。相较于传统数据中心,本数据中心在能效表现上展现出显著优势。

传统数据中心PUE值通常在1.5左右,即每单位电能的实际利用率仅为0.67,其余部分则消耗在冷却、照明等非数据处理环节。本浸没式液冷可移动集装箱式高密度绿色数据中心的部署实现了能源及空间利用率的显著提升。

据详细测算,浸没式液冷可移动集装箱式高密度绿色数据中心相较于传统风冷数据中心每年预计可节约用电能耗近600万度。这一成果不仅凸显了节能减排方面的显著成效,同时也带来了可观的经济效益。按照当前电价标准,这一节约的电量将为企业节省电费支出约450万元,为通信运营商等数据中心用户有效降低了综合运营成本及能耗。

同时,浸没式液冷可移动集装箱式高密度绿色数据中心所展现的高效能源利用和环保意识,也符合当前社会对可持续发展的高度重视。通过积极履行社会责任,推动绿色数据中心建设。通过实现高效的能源利用和成本控制,同时推动行业绿色可持续发展。

THEEND

最新评论

更多
暂无评论