标准化将成为液冷推进的关键
冷板式液冷和浸没式液冷是数据中心液冷的两种主流方式。究竟选择哪种液冷方式以及如何实现快速部署一直都是行业热议的话题。
PXIe-5160 随着越来越多AI服务器采用冷板式液冷,冷板式液冷也更容易与传统的风冷系统兼容,受到很多数据中心运营商的青睐。但是服务器厂家液冷的设计方式多种多样,快速接头、盲插和Manifold的兼容性存在诸多问题,IT与基础设施的责任边界也模糊不清,这大大限制了液冷在数据中心的接受度和推广。
相较于冷板式液冷,采用碳氟化合物流体的浸没式液冷不仅价格相对较高,而且很多碳氟化合物属于对环境有害的人工合成类化学物质,面临越来越多的行业监管与政策压力。因此,浸没式液冷除了采用油类冷却液,可用的碳氟化合物流体将越来越少。
施耐德电气观点:
IT厂家提供更为标准化的设计方案,包括流体的温度、压力、流量、设备的接口等,并且提供更加明确的责任边界。
PXIe-5160 施耐德电气将在第一季度发布液冷白皮书,来帮助数据中心更好地部署液冷技术。
趋势六
数据中心将更加关注WUE
水资源短缺正在成为许多地区的严重问题,了解和减少数据中心的水资源消耗变得越来越重要。此前,数据中心水资源消耗未被重视的一个重要原因是用水成本相对用电通常是微不足道的,甚至很多数据中心通过消耗更多的水来提高能效。但是,数据中心的用水已经引起了很多当地政府的关注,尤其在水资源匮乏的地区,政府正在出台各项政策来限制和优化数据中心的用水。这其中包括将WUE作为数据中心的设计指标,采用水电双控政策。因此,减少用水量将成为许多数据中心运营商未来关注的重点领域。
施耐德电气观点:
数据中心的WUE值在 0.3-0.45 L/kWh之间是一个相对优秀的数值。施耐德电气建议根据数据中心所在地域水资源情况、气候情况和数据中心类型,寻找用电与用水之间的平衡。
行业可以采用绝热蒸发、间接蒸发冷却、液冷等各种技术创新,从而减少直接用水量。数据中心运营商应将WUE作为可持续发展目标的一部分,报告用水量/节水量,同时关注用电所带来的间接用水量。
PXIe-5160
趋势七
PXIe-5160 提升配电能力将成为智算中心新的诉求
在智算中心,随着机柜功率密度的提升以及AI机柜的集群化部署,IT机房的配电面临额定容量偏小的挑战。比如,过去一个300 kW的配电模块可以支持几十台甚至是上百台机柜。而如今,同样配电模块的电量甚至无法支持一个最低配置的NVIDIA DGX SuperPOD AI集群(单排358 kW的10个机柜,每机柜36 kW)。配电模块规格太小,使用多个配电模块不仅浪费IT空间,也变得不切实际。与单个大容量配电模块相比,多个配电模块还会增加成本。回归配电的本质,提高配电容量的主要手段就是增大电流。
施耐德电气观点:
在设计时应选择规格足够高的配电模块,实现弹性部署,从而适应未来的配电需求,以至少支持一整排集群为准。
比如,在额定电压下,800 A的配电模块是目前适用于所有三种配电类型(PDU,RPP和母线)的标准容量尺寸,可提供576 千瓦(降容后为461 千瓦)。对于末端配电可以使用小母线,从而避免了定制大于63 A额定电流的机柜PDU。在空间允许的情况下,可以使用多个标准化的机柜PDU作为过渡。
趋势八
PXIe-5160 AI将赋能数据中心的节能改造
数据中心通过提供AI算力推动人类社会向着自动化、数字化和电气化等更加可持续的方向演进,赋能交通、制造和发电领域减少对环境的影响。反过来,AI也可以赋能数据中心能源的优化,来减少其自身对环境的影响。
比如,AI和机器学习技术可以用于数据中心冷源系统和空调末端的控制,通过对历史数据的分析,实时监测数据中心气流分布,并基于数据中心IT负载的变化,实时匹配合适的冷量输出。通过自动调节末端精密空调及风机的运转方式,从而实现动态地按需制冷,以减少热点并且降低机房的能源消耗与运维成本。
施耐德电气观点:
AI技术在机房空调群控系统中的应用,可以实现机房内部环境参数的智能监测和控制,并通过自动调节与优化来提高能效和系统的可靠性,从而达到节能减排的目的。
随着AI技术的持续普及,以及国家对数据中心节能降耗的持续要求,无论是新建还是改造项目,AI技术在数据中心空调群控系统中均将得到更多的关注与应用。