据统计,数据中心能耗已占全社会总用电量的1.5%~3%,其中空调系统耗电量占数据中心总耗电量的30%~50%[1]。因此,如何提高数据中心空调系统能效,实现绿色节能运行,已成为业界关注的焦点。本文将从负荷计算、系统选型、节能策略、案例分析等方面,探讨数据中心空调节能的途径与实践,以供相关从业者参考。
(示意图,不对应文中任何具体信息)
一、数据中心冷热负荷分析1.1 负荷构成
数据中心的冷热负荷主要来自以下几个方面[2]:
(1)IT设备散热:服务器、存储、网络等IT设备的发热量,是数据中心冷负荷的主要组成部分,占比可达70%以上。
(2)照明散热:数据中心内照明灯具的发热量,一般占冷负荷的3%~5%。
(3)人员散热:值守人员的代谢热和设备维护过程中的散热,占比较小。
(4)围护结构传热:机房围护结构的传导、辐射等得热或失热,在负荷中占比5%~10%。
(5)新风负荷:引入新风所需的显热和潜热处理,在夏季制冷时需考虑。1.2 负荷计算方法
数据中心冷热负荷的计算要点如下[3]:
(1)IT设备散热量:根据设备额定功率、数量、机柜布置等因素估算,可乘以同时使用系数(0.5 1.0)。
(2)人员散热量:按每人 120W 计算,乘以人数和在场时间比例系数。
(3)围护结构传热量:依据机房建筑材料、面积、温差等,采用传热学方法分别计算得热和失热量。
(4)新风负荷:根据新风量和室内外空气状态计算显热和潜热负荷,一般按每机柜 100~300m³/h 新风量设计。负荷计算时应对上述各项分别估算,然后以最不利工况叠加,并考虑一定裕量,最终确定空调系统的设计负荷。
二、数据中心空调系统选型
2.1 冷源形式
数据中心冷源形式主要有风冷、水冷、蒸发冷等。风冷具有投资省、布置灵活等优点,中小型机房较常用;水冷具有效率高、噪声小、运行稳定等优势,大型数据中心普遍采用;蒸发冷适合干燥地区,可大幅节约用水[4]。冷源形式应根据数据中心的规模、气候条件、水资源等因素综合选择。
2.2 空调方式
数据中心的空调方式大致分为机房级和列间级两大类[5]。
(1)机房级空调:
将冷量直接送入机房内,常见的有空调机组、close coupled 空调器等。
(2)列间级空调:
在机柜列间设置空调设备,如冷通道封闭空调、行级制冷机等。与机房级相比,列间级空调可实现局部冷量匹配,免去冷热通道隔离,节省机房净空。
列间级空调更利于模块化、按需部署,是现代大型数据中心的主流趋势。
2.3 末端形式
数据中心的空调末端主要采用冷却盘管和送风口两种[6]:
(1)冷却盘管:
安装在机柜后门或侧面,利用冷冻水带走 IT 设备的热量。水路系统简单可靠,可实现机柜级的冷量调节。
(2)送风口:
与机房级空调配套使用,将冷风直接送入冷通道或机柜内。气流组织灵活,可根据 IT 负荷进行送风量和温度的优化控制。末端形式的选择要兼顾机房布局、热源分布、施工条件等因素。大型数据中心一般采用上送下回的方式,利于气流组织。
三、数据中心空调节能问题
数据中心空调的能效为何如此之低?通过对当前数据中心的研究发现,大多数数据中心的空调系统都存在着如下一系列的设计问题。
1、系统整合难、切换难、维护难。
为了服务器工作人为营造低温环境,完全采用人工制冷,没有利用自然冷源自然冷却。改进冷源形式往往是最为经济有效的节能方法,制冷机在空调系统中耗电最大,以冷却塔免费供冷代替制冷机,依靠自然冷源提供冷量,会使空调系统的整体运行能耗大幅下降,是效果显著的节能途径。而在实际应用中,采用自然冷源存在系统整合难、切换难、维护难的特点,所以目前国内只有少部分的大型数据中心成功有效的使用了该技术。
2、没有充分利用空调系统的诸多节能技术。
空调系统中节能效果突出的余热回收、蓄冷、变风量、变频等技术,在数据中心中很少采用。因为数据中心所其提供服务的特殊性,数据安全是首要因素,宕机是不允许出现的情况。空调系统作为服务器正常工作的保障,管理者更关注其制冷能力是否有足够的冗余量,某台空调发生故障时能否及时开启备用设备,对设计的要求必然保守。而节能技术需要积少成多、其效果需日积月累才能体现,如果担心某技术对空调的稳定性可能产生影响,往往倾向于不采用。
3、空调设备制冷量与实际负荷的匹配存在问题。
机房内的机架通常是逐步投入、不断扩容的,而空调负荷与气流组织则是建设阶段对机房整体考虑设计的。运行初期投入使用的机架数少,空调系统部分负荷下运行,效率不高。而后期投入使用的新型的机架,往往功率更大,发热密度更高,却受制于机房现有格局,不能被摆放在气流组织有利的位置。这样,随着机架不断进场,机房内始终冷热不均,管理者只能调低空调机的温度设定值,造成过度制冷,导致空调能耗居高不下。
4、设计选用的空调机型参数与机房运行时的真实热工况存在偏差。
据调查发现,目前约 85%的数据中心空调机组耗能比设计工况高 50% 以上。现行数据中心设计均参照的是国标《电子信息系统机房设计规范》及美国 TIA-942 标准,精密空调机组的设计运行温 / 湿度为 23℃±1℃/50%,加之现有精密空调生产厂家所提供的室内机回风工况参数多为 24℃/50%。故空调设计时多按照此工况点进行选型。而服务器机架的发展趋势是高度集成化,单个机架的功率越来越大,机柜出风口温度很高,实际运行中很容易出现局部温控点温度超标的现象,应对办法就是将空调机组设定的回风温度 24℃ 调低。假如调低空调机组设定温度 2℃, 那么按回风参数24℃ 选型出来的空调机组对应 22℃ 的工况点,直接膨胀式空调压缩机 COP 值会下降约 7%,显冷量会下降 8%~19%,冷冻水式空调机组的显冷量会下降 13%~16%。因机房负荷全部是显热负荷,则能耗增加了大约 15%~25%。若继续调低空调机运行工况参数设定点,对应的能耗会呈现非线性的增长。
( 5)精密空调机组温湿度一起控制的模式,造成了先除湿再加湿的能耗浪费。
在干球温度 23℃,相对湿度 50% 的室内状态点,露点温度为 11.9℃,空气经过表冷器时降温除湿。而机房运行过程中基本无散湿量,所以空气湿度降低,超过设定下限后空调自动开启加湿功能,此时加湿器给空气等温加湿,增加了空调潜热冷负荷,空调能耗显著上升。
四、数据中心空调节能策略4.1 面临的问题
传统数据中心普遍存在以下节能问题[7]:
(1)设计裕量过大,造成能源浪费。早期数据中心常按 IT 负荷的 2~3 倍设计冷源,实际运行效率低。
(2)冷通道温度设置过低,制冷能耗高。传统数据中心多将冷通道温度控制在 20℃以下,而 IT 设备可适应更高温度。
(3)冷热通道混合,局部热点时有发生。由于气流短路、通道隔离不彻底等原因,冷热空气掺混,降低送回风温差。
(4)缺乏智能控制手段,无法精确调节冷量。分散独立的空调系统缺乏协同优化,易出现冷量误差。针对以上问题,数据中心空调节能应从需求侧和供应侧两个方面入手,通过负荷匹配、温度优化、气流组织、智能控制等措施,最大限度地提高系统效率[8]。
4.2 具体措施
(1)右移制冷:适当提高冷通道温度,现行标准推荐不低于 25℃,可明显降低制冷能耗。
(2)自然冷源:合理利用外界自然冷源,如采用间接蒸发冷却、plate heat exchanger 等,减少压缩机耗电。
(3)热管背板:机柜背板内置热管换热器,将 CPU 等高热密度部件的热量有效导出,改善机柜温度场均匀性。
(4)冷热通道封闭:采用柜间空调、冷通道封闭等方式,彻底隔离冷热气流,提高回风温度。
(5)局部冷却:对热点区域实施重点冷却,避免局部过冷。如采用机柜列间空调、in-row 空调等。
(6)智能群控:通过各空调机组间的协同控制和优化调度,匹配冷量供应与 IT 负载需求。
(7)温湿度优化控制:根据机房实际热湿负荷,动态调节送风温湿度,减少过度除湿和再热能耗。
(8)变频调速:冷水泵、冷却塔风机等采用变频调速,根据负荷需求调节运行频率,避免过量供冷。
(9)废热回收利用:对机房排风进行热回收,如用于冬季取暖、夏季再生除湿等,提高能源梯级利用效率。
(文章来源于微信公众号:制冷空调换热器)