如何选择数据中心空调自然冷却方案
- 格式:pdf
- 大小:561.40 KB
- 文档页数:5
数据中心空调系统节能技术白皮书目录1. 自然冷却节能应用31.1 概述31。
2 直接自然冷却31。
2。
1简易新风自然冷却系统31。
2。
2新风直接自然冷却51。
2。
3 中国一些城市可用于直接自然冷却的气候数据: 8 1.3 间接自然冷却81.3.1间接自然冷却型机房精密空调解决方案81。
3。
2风冷冷水机组间接自然冷却解决方案121。
3.3水冷冷水机组间接自然冷却解决方案151。
3.4 中国一些城市可用于间接自然冷却的气候数据:16 2。
机房空调节能设计172。
1 动态部件172.1。
1 压缩机172.1。
2 风机182.1.3 节流部件192.1.4 加湿器192.2 结构设计212.2.1 冷冻水下送风机组超大面积盘管设计212.2。
2 DX型下送风机组高效后背板设计222。
3 控制节能222。
3.1 主备智能管理222.3。
2 EC风机转速控制232。
3。
3 压差控制管理232.3.4 冷水机组节能控制管理261。
自然冷却节能应用1.1概述随着数据中心规模的不断扩大,服务器热密度的不断增大,数据中心的能耗在能源消耗中所占的比例不断增加。
制冷系统在数据中心的能耗高达40%,而制冷系统中压缩机能耗的比例高达50%。
因此将自然冷却技术引入到数据中心应用,可大幅降低制冷能耗。
自然冷却技术根据应用冷源的方式有可以分为直接自然冷却和间接自然冷却。
直接自然冷却又称为新风自然冷却,直接利用室外低温冷风,作为冷源,引入室内,为数据中心提供免费的冷量;间接自然冷却,利用水(乙二醇水溶液)为媒介,用水泵作为动力,利用水的循环,将数据中心的热量带出到室外侧。
自然冷却技术科根据数据中心规模、所在地理位置、气候条件、周围环境、建筑结构等选择自然冷却方式。
1。
2直接自然冷却直接自然冷却系统根据风箱的结构,一般可分为简易新风自然冷却新风系统和新风自然冷却系统.1.2.1简易新风自然冷却系统1.2。
1。
1简易新风自然冷却系统原理简易新风直接自然冷却系统主要由普通下送风室内机组和新风自然冷却节能风帽模块组成。
数据中心专用空调配置选择及PUE值计算数据中心机房环境对服务器等IT设备正常稳定运行起着决定性作用。
数据中心机房建设的国家标准GB50174-2008《电子信息机房设计规范》对机房开机时的环境的要求:为使数据中心能达到上述要求,应采用机房专用空调(普通民用空调、商用空调与机房专用空调的差异对比不在本文讨论范围)。
如果数据中心机房环境不能满足以上要求会对服务器等IT 设备造成以下影响:温度无法保持恒定—造成电子元气件的寿命降低局部温度过热—设备突然关机湿度过高—产生冷凝水,短路湿度过低-产生有破坏性的静电洁净度不够—机组内部件过热,腐蚀一)数据中心热负荷及其计算方法按照数据中心机房主要热量的来源,分为:λ设备热负荷(计算机等IT设备热负荷);λ机房照明热负荷;λ建筑维护结构热负荷;λ补充的新风热负荷;λ人员的散热负荷等。
1、机房热负荷计算方法一:各系统累加法(1)设备热负荷:Q1=P×η1×η2×η3(KW)Q1:计算机设备热负荷P:机房内各种设备总功耗(KW)η1:同时使用系数η2:利用系数η3:负荷工作均匀系数通常,η1、η2、η3取0。
6~0.8之间,考虑制冷量的冗余,通常η1×η2×η3取值为0.8。
(2)机房照明热负荷:Q2=C×S(KW)C:根据国家标准《计算站场地技术要求》要求,机房照度应大于2001x,其功耗大约为20W/M2。
以后的计算中,照明功耗将以20W/M2为依据计算。
S:机房面积(3)建筑维护结构热负荷Q3=K×S/1000(KW)K:建筑维护结构热负荷系数(50W/m2机房面积)S:机房面积(4)人员的散热负荷:Q4=P×N/1000(KW)N:机房常有人员数量P:人体发热量,轻体力工作人员热负荷显热与潜热之和,在室温为21℃和24℃时均为130W/人。
(5)新风热负荷计算较为复杂,我们以空调本身的设备余量来平衡,不另外计算。
本文分析了冷却塔供冷的关键因素,如热工曲线、湿球温度、工况切换点等,得出以下结论,为数据中心节能设计提供参考依据。
·冷却塔供冷按冬季工况选取,夏季校核,结合夏季工况灵活配置;·冬季供冷以小于冷却塔的额定流量来获取较低出水温度,延长冷却塔供冷时间;·冷却水泵应设变频,适应管网特性曲线变化等设计方法。
01冷却塔供冷冷却塔供冷分直接供冷与间接供冷两种,由于直接供冷需室外冷却水直接进入空调末端,水质不佳时极易引起末端堵塞,而影响系统运行,工程中大多数采用间接供冷系统(开式冷却塔+板式换热器),即与冷水机组并联或串联一台板式换热器。
冷水机组与板式换热器并联,湿球温度达到一定值时,由板式换热器提供全部冷量,关闭冷水机组,使冷却水和冷冻水分别进入板式换热器,冷却塔做为冷源,达到完全自然冷却,但并联形式不能采用部分自然冷却;冷水机组与板式换热器串联,冷水串联经过板式换热器与冷水机组,过渡季节用冷却塔出水先预冷冷水回水,再进入冷水机组制冷,减小主机能耗,得到可观的部分自然冷却时间,仅额外增加水在板式换热器内的输送能耗。
为充分利用部分自然冷却,北方地区数据中心往往选择冷水机组与板式换热器串联这种组合形式,见图1,本文讨论也是基于这个系统。
图1冷却塔供冷系统原理图02 负荷侧系统设计2.1冷负荷数据中心主要由服务器、UPS等散热转化而成的显热负荷,几乎没有潜热负荷,冬夏季冷负荷相差不大,冷却水流量大致在80%~100%内变化;末端干工况运行,冷负荷按显热负荷考虑。
2.2冷水供水温度数据中心考虑采用温湿度独立控制方案,由高温冷水处理显热负荷,新风进行独立的加湿或除湿。
冷水供水温度取值,直接受机柜进风温度取值的影响。
ASHARE推荐的机柜进风温度宜取20~25℃,允许范围是18~27℃。
考虑到空气-水换热器空气侧阻力降的影响,送风温度与冷水供水温差取8℃,可有多种供水温度与送风温度组合,常用的有送风温度20 ℃,冷水供回水温度为12/18℃;送风温度23℃,冷水供回水温度为15/21℃。
数据中心新型冷却方式介绍(6):热管背板空调系统从2018年开始,北京、上海、深圳等一线城市,陆续出台“PUE新政”。
2018年9月,北京提出全市范围内禁止新建和扩建互联网数据服务、信息处理和存储支持服务数据中心(PUE值在1.4以下的云计算数据中心除外)。
上海也出台类似政策,存量改造数据中心PUE不得高于1.4,新建数据中心PUE限制在1.3以下。
2019年4月,深圳提出PUE1.4以上的数据中心不再享有支持,PUE低于1.25的数据中心,可享受新增能源消费量40%以上的支持。
为了降低PUE,近几年数据中心新型末端冷却方式不断涌现,水冷背板空调、热管、水冷背板、液体冷却等等。
本文主要介绍热管背板空调系统。
1、热管背板空调系统组成热管背板空调系统组机组主要由框架、蒸发器盘管、进出风温湿度传感器、控制系统、氟利昂管路等组成。
热管背板空调安装位置为服务器机柜回风口位置。
2、热管背板的基本原理热管背板冷却技术是利用工质相变(气/液态转变)实现热量快速传递的一项传热技术。
通过小温差及重力驱动热管系统内部循环工质的气液变化,形成自适应的动态相变循环,将数据中心机房内IT设备的热量带到室外,实现管道内制冷工质无动力,自适应平衡的冷量传输。
机柜内IT设备散发的热量使室内末端中热管换热器的冷剂吸热汽化;汽化的制冷剂依靠压差经连接管路流向室外热管中间换热器;制冷剂蒸汽在热管中间换热器内被来自自然冷源冷水系统的冷水冷却,由气态冷凝为液态;液态制冷剂借卑重力回流至室内末端中的热管换热器中,完成一个冷量输送的热力循环。
热管背板规格包括:3kW、4kW、5kW、7kW、10kW、15kW等,设备能效比可以达到60以上。
图1 热管背板空调运行原理图3、热管背板的主要性能参数标准19英寸服务器机柜的热管背板空调单机柜供冷量超过12kW,供冷密度高。
单机柜可提供的冷量随着热管背板进风温度(服务器排风温度)的提高而升高,随着冷源(冷水)温度的提高而降低。
数据中心冷却[1]:热回收数据中心热回收是对数据中心空调系统的余热进行收集并回收利用,进而达到能源高效利用,提升热经济性。
由于数据中心全年处在运行状态,产生的余热量大且品质稳定,但温度水平较低,使得热利用面临效益低下问题,故数据中心余热回收利用是一个值得探讨的挑战性问题。
目前,数据中心热回收技术主要是通过收集冷凝器产生的余热满足周围建筑的供暖和生活热水需求。
图1数据中心典型的冷却系统数据中心热回收过程可分成三个组成部分。
首先是在数据中心侧,对其进行冷却,收集产生的余热。
接着将数据中心收集到的余热与热回收循环水换热,循环水温度通过热泵提升达到供暖设计温度后进入蓄热水箱进行统一的热管理,最后经水箱调节后进入民用供暖管网。
图2热回收过程示意图以冷板式液冷数据中心的热回收过程为例。
其散热包括两部分——冷板芯片散热及其他电气元器件的风冷散热。
由于液冷可以达到承受较高的水温,因此室外可采用干冷器直接散热,在液冷高温回水返回干冷器前进入串联的液冷散热热回收换热器,与管网回水换热,再送至用户端完成整个热回收过程。
同时冷板式液冷数据中心还有20%-30%左右的热量需通过风冷散热。
风冷散热可采用传统冷冻水精密空调末端制冷,利用全热回收冷水机组在制冷同时进行热回收,并配置闭式冷却塔平衡散热及热回收量。
此外,在闭式冷却塔与冷冻水系统之间可设置自然冷却换热器,供低温季节进行自然冷却。
图3冷板式液冷数据中心热回收示意图在目前的数据中心中使用冷凝热回收,满足周围建筑供暖和生活热水已经有许多成功的案例,例如瑞典的斯德哥尔摩数据中心,其产生的热量可满足2万套现代住宅公寓的供暖;国内腾讯在天津滨海的数据中心,其产生的余热可满足5100多户居民的用热需求。
热回收技术在数据中心中的应用,能够有效解决因数据中心散热导致的热岛效应,同时提高能源利用效率。
相信随着热回收技术的发展,还会有更多不同的余热利用形式在数据中心得以成功应用。
数据中心冷却[2]:冰蓄冷冰蓄冷技术是一种利用夜间用电低谷时段,把冷量以冰的形式储存起来,在白天用电高峰时段将储存的冷量释放出来,通过“削峰填谷”的运作方式,提高能源利用效率,优化资源配置的制冷技术。
《数据中心采用冷却塔间接自然冷却技术的能耗分析》篇一一、引言随着信息技术的飞速发展,数据中心作为存储和处理海量数据的场所,其能耗问题日益突出。
为了降低能耗、提高能效,数据中心开始采用各种先进的冷却技术。
其中,冷却塔间接自然冷却技术因其在低环境温度下利用自然冷源实现降温的效果而备受关注。
本文将分析数据中心采用此技术后的能耗变化,以及相应的经济效益和社会环境效益。
二、数据中心现状与冷却技术选择目前,数据中心的能耗主要集中在服务器、存储设备以及冷却系统等方面。
其中,冷却系统的能耗占据相当大的比重。
传统的冷却方式如风冷、水冷等,在高温环境下需要消耗大量能源来维持设备运行。
而冷却塔间接自然冷却技术则通过利用夜间低温自然冷源,降低冷却系统的能耗。
三、冷却塔间接自然冷却技术原理及特点(一)技术原理冷却塔间接自然冷却技术利用夜间低温空气,通过间接换热的方式将数据中心内部的热量传递给冷却水,再由冷却水通过冷却塔散失到大气中。
这种方式在夜间环境温度较低时效果更佳,能够大幅度降低冷却系统的能耗。
(二)技术特点1. 节能环保:利用自然冷源,降低能耗,减少碳排放。
2. 经济效益高:降低运行成本,提高能效。
3. 适用范围广:适用于各种规模的数据中心。
4. 维护成本低:技术成熟,设备维护成本低。
四、能耗分析(一)能耗数据收集与分析为准确分析数据中心采用冷却塔间接自然冷却技术后的能耗变化,我们收集了采用该技术前后的能耗数据。
通过对数据的分析,我们可以看出,在夜间低温时段,采用该技术的数据中心能耗明显降低。
尤其是在夏季高温时段,降温效果更为显著。
(二)能耗对比分析与传统的冷却方式相比,采用冷却塔间接自然冷却技术的数据中心在夜间低温时段的能耗降低了约XX%。
同时,由于减少了风扇、空调等设备的运行时间,也降低了设备维护成本和故障率。
综合来看,采用该技术的数据中心整体能耗降低了约XX%,经济效益显著。
五、经济效益与社会环境效益分析(一)经济效益分析采用冷却塔间接自然冷却技术的数据中心,由于降低了能耗和设备维护成本,可以大幅度提高经济效益。
IDC数据中心空调制冷1.引言随着互联网和大数据技术的飞速发展,数据中心作为信息处理和存储的核心设施,其规模和数量日益扩大。
数据中心运行过程中,服务器等设备的能耗巨大,其中空调制冷系统是保证数据中心稳定运行的关键。
因此,对IDC数据中心空调制冷技术的研究具有重要的现实意义。
2.IDC数据中心空调制冷需求2.1温湿度控制数据中心内部设备对温湿度要求严格,过高或过低的温湿度都会影响设备的正常运行。
空调制冷系统需确保数据中心内部温度控制在一定范围内,同时湿度也要满足设备运行需求。
2.2高效节能数据中心能耗巨大,空调制冷系统作为能耗大户,其能效比直接关系到数据中心的整体能耗。
因此,提高空调制冷系统的能效比,降低能耗,是IDC数据中心空调制冷技术的关键需求。
2.3可靠性与安全性数据中心作为关键信息基础设施,其运行稳定性至关重要。
空调制冷系统需具备高可靠性和安全性,以确保数据中心稳定运行,避免因制冷系统故障导致的数据丢失或业务中断。
3.IDC数据中心空调制冷技术3.1直接膨胀式制冷技术直接膨胀式制冷技术是利用制冷剂在蒸发器、压缩机、冷凝器和膨胀阀等部件组成的封闭循环系统中,通过相变实现热量传递的一种制冷方式。
该技术具有结构简单、能效比高、可靠性好等特点,广泛应用于IDC数据中心空调制冷。
3.2水冷式制冷技术水冷式制冷技术是利用水作为冷却介质,通过冷却塔、水泵、冷却盘管等设备将热量传递到外部环境中。
该技术具有制冷效果好、能效比高、适用范围广等优点,但占地面积较大,对水源有一定依赖。
3.3风冷式制冷技术风冷式制冷技术是利用空气作为冷却介质,通过风机、散热器等设备将热量传递到外部环境中。
该技术具有结构简单、安装方便、适用范围广等优点,但能效比较低,适用于小型或中小型数据中心。
3.4冷冻水式制冷技术冷冻水式制冷技术是利用冷冻水作为冷却介质,通过冷水机组、冷却塔、水泵等设备将热量传递到外部环境中。
该技术具有制冷效果好、能效比高、适用范围广等优点,但系统复杂,初投资较高。
某数据中心项目空调冷却塔方案选择 郭彦玲 【摘 要】针对某数据中心的项目特点,提出不同的空调冷却塔方案.简要介绍各方案选型方法及系统配置,并从经济性、节能性、设计安装等方面对两种方案进行分析,比较其优缺点,最终确定该项目的空调冷却塔方案.为类似数据中心项目冷却塔方案选择提供设计依据和思路.
【期刊名称】《制冷与空调(四川)》 【年(卷),期】2018(032)003 【总页数】5页(P296-299,311) 【关键词】数据中心;冷却塔;自然冷却;经济分析 【作 者】郭彦玲 【作者单位】广东省电信规划设计院有限公司 广州 510630 【正文语种】中 文 【中图分类】TU83
0 引言 随着通信和网络技术的飞速发展、数据中心的建设数量和规模迅速增加。据测算,我国数据中心总量已超过40万个,其总能耗占全社会总能耗的1~2%,其中空调系统能耗平均占数据中心总能耗的40%左右[1-3]。数据中心节能,尤其是空调系统节能已经成为日益关注的课题。 大中型数据中心最常见的冷源方式是采用冷冻水作为空调冷源。冷却塔作为水冷空调系统的重要部件,其方案选择直接影响空调系统的整体性能和能耗。本文将针对苏州某具体数据中心项目,对其冷却塔方案选择做出对比分析,并确定合适的冷却塔方案。 1 工程概述 1.1 工程概况 本工程为苏州某数据中心项目,建筑总面积19712m2,建筑总高度21.6m。建筑总层数4层,其中1层为配电房、设备机房等辅助用房,2、3、4层为标准层,功能主要为数据机房和配套动力用房。 经负荷计算,本工程通信设备功耗约为12144kW,加上动力设备发热量及维护结构冷负荷约2500kW,空调系统总冷负荷为14644kW。 1.2 项目自然冷却技术条件 在室外温度较低的冬季和过渡季节,可以直接利用室外低温环境制冷,只需部分开启或无需开启制冷机组,减少能耗,即为自然冷却技术。当冷却塔出水温度低于冷冻水供水温度时,就可以关闭冷水机组,利用室外冷却塔作为冷源,采用自然冷却方式供冷。图1为苏州市全年温度曲线。 图1 苏州市全年温度曲线Fig.1 Annual temperature curve of Suzhou 2 空调冷却塔方案 本项目空调系统采用冷冻水侧自然冷却技术,其相应的冷却塔方案如下。 (1)方案一:闭式冷却塔 选用闭式冷却塔供冷,当冷却塔出水温度达到或低于冷冻水供水温度时,可以关闭冷水机组,利用冷却塔直接供冷。方案一系统流程图如图2所示。 图2 方案一系统流程图Fig.2 System flow chart for scheme 1 (2)方案二:开式冷却塔+板式换热器 选用开式冷却塔+板式换热器供冷,当冷却塔出水温度低于冷冻水供水温度1.5℃~2℃时,可以关闭冷水机组,利用冷却塔出水与冷冻水在板式换热器两侧换热。方案二系统流程图如图3所示。 图3 方案二系统流程图Fig.3 System flow chart for scheme 2 冷却塔稳定运行是整个冷却水系统稳定运行和节能的关键因素,数据中心项目冷却塔技术选型必须兼顾各种工况参数。通常情况下,数据中心项目冷却塔选型应按照冬季自然冷却工况选型,再对夏季制冷工况进行校核。本项目采用水冷冷水机组+自然冷却系统,冬季冷却塔室外设计湿球温度的选择是关键。确定冬季室外设计湿球温度的意义在于,达到该湿球温度和低于该湿球温度时,系统就能够关闭冷水机组,完全自然冷却[4]。 本项目空调系统采用12/18℃的冷冻水,冷却塔逼近度(冷却塔出水温度与湿球温度之差)取为4℃。采用闭式冷却塔自然冷却时,冬季冷却塔供水直接作为冷冻水供冷,供回水温度为12/18℃,冬季室外设计湿球温度取为8℃;采用开式冷却塔+板式换热器自然冷却时,考虑到板式换热器两侧温差,冬季冷却塔出水温度比冷冻水供水温度低1.5℃~2℃,冷却塔供回水温度为10.5/16.5℃,冬季室外设计湿球温度取为6.5℃。经选型计算后,两个冷却塔方案的主要设备配置情况如表1所示。 表1 空调系统主要设备配置表Table 1 Main equipments for different schemes方案 主要设备 主要参数 数量 主用数量一水冷式离心冷水机组 制冷量:3867kW(1100RT),输入功率:595kW 5 4冷冻水循环泵 G=600m3/h,H=34m,N=90kW 5 4冷却水循环泵 G=700m3/h,H=30m,N=90kW 5 4冷冻水精密空调 制冷量:130kW,输入功率:6.9kW 144 120闭式冷却塔 G=300m3/h(湿球8℃,冬季工况)N=60kW;G=640m3/h(湿球28℃,夏季工况)N=82kW; 10 8(冬季自然冷却时)4(其他季节制冷时) 续表1 空调系统主要设备配置表方案 主要设备 主要参数 数量 主用数量二水冷式离心冷水机组 制冷量:3867kW(1100RT),输入功率:595kW 5 4冷冻水循环泵 G=600m3/h,H=34m,N=90kW 5 4冷却水循环泵 G=700m3/h,H=30m,N=90kW 5 4冷冻水精密空调 制冷量:130kW,输入功率:6.9kW 144 120开式冷却塔 G=300m3/h(湿球6.5℃,冬季工况)N=44kW;G=660m3/h(湿球28℃,夏季工况)N=44kW 10 8(冬季自然冷却时)4(其他季节制冷时)板式换热器 额定换热量:8000kW 3 2 3 冷却塔方案比较 为了选择出最适合项目的冷却塔方案,从冷却水性能、经济性、设计运维等方面对两种方案进行分析比较。 3.1 基本性能比较 开式塔和闭式塔是按热水和空气的接触方式分类,其换热原理如图4所示。 开式冷却塔是将循环水喷淋到填料上,风机带动塔内气流循环,通过水和空气的接触进行换热。闭式冷却塔的冷却分为内循环和外循环,内循环与制冷主机对接,将热量带到冷却塔;外循环水不与内循环水相接触,通过塔内的换热盘管吸收内循环水的热量,然后通过和空气的直接接触散热[5-8]。 本项目两种冷却塔方案性能对比如表2所示。 图4 开式冷却塔与闭式冷却塔原理图Fig.4 Schematic diagram of opening cooling tower and closed cooling tower 表2 两种冷却塔基本性能分析Table2 Performance analysis of two system方案一:闭式冷却塔 方案二:开式冷却塔+板式换热器冷却水水质 水质好,被冷却设备运行效率高 水质差,易引起相连设备结垢,需水处理方案系统使用寿命 寿命长 受水质影响,相连设备寿命较短抗震抗风性能 塔体强度高、重量重,抗震抗风性能好 抗震抗风性能相对较差运维管理难度 无水处理设备,相连设备故障率低,运维管理方便水质较差,板式换热器需经常清洗,运维管理工作量大 3.2 经济性比较 方案的经济性比较从初投资和年运行费用两方面进行,初投资比较针对两种空调方案主设备(不包含水处理设备、加湿设备等),年运行费用比较主要针对两种空调方案的年运行电费和自来水费。 在年运行费用计算中,根据数据中心的使用特点,结合当地气象特点,简化计算条件如下:空调系统全年供冷,夏季满负荷运行期按150天,冬季自然冷却时间按苏州市历年平均气温查算,其余时间为过渡季节部分负荷运行时间,部分负荷运行期平均负荷率取90%。根据苏州当时的气候条件,全年有近103天的时间平均气温在10℃以下,全年有近73天的时间平均气温在8.4℃以下(10℃和8.4℃分别为苏州市湿球温度8℃和6.5℃时对应的干球温度)。由此得到方案一冬季自然冷却时间为103天,过渡季节部分负荷运行时间为112天;方案二冬季自然冷却时间为73天,过渡季节部分负荷运行时间为142天。开式冷却塔耗水量按冷却水总循环量的1.5%计算,闭式冷却塔耗水量按冷却水总循环量的0.8%计算;电价按0.82元/kWh;自来水费按3.5元/m3计算。运行费用计算方法如下:
数据中心机柜冷却技术随着数字化和网络化时代的发展,数据中心的需求日益增多,而数据中心机柜的冷却技术则成为了一个重要的问题。
良好的冷却技术可以确保服务器和设备的正常运行,同时降低耗电量,提高能效。
因此,本文将介绍几种数据中心机柜冷却技术以及它们的特点和应用。
一、热交换器冷却技术热交换器冷却技术是目前应用较为广泛的一种技术。
它通过利用冷却液与热量产生源进行热交换,达到冷却的效果。
这种技术可以有效地控制温度,保持数据中心的稳定运行。
同时,它可以减少能源的消耗,并提高能源的利用效率。
热交换器冷却技术具有可靠性高、维护成本低的特点,在数据中心中得到了广泛的应用。
二、风冷却技术风冷却技术是一种传统且常见的冷却方式。
它通过利用空气进行传热,将热量带走,实现冷却的效果。
风冷却技术具有成本低、易于实施的优势。
然而,它也存在一些问题,比如过热点的问题。
在数据中心中,由于机柜的密集布置,某些区域可能形成热量聚集的过热点,从而影响冷却效果。
因此,在应用风冷却技术时,需要合理规划机柜的布局,以提高冷却效果。
三、液冷却技术液冷却技术是一种高效的冷却方式。
它将液体引入机柜内部,通过直接接触加热元件的方式进行冷却。
相比于风冷却技术,液冷却技术可以实现更高效的散热,同时还可以减少噪音和能源消耗。
然而,液冷却技术在实施过程中也存在一些挑战,比如技术要求高、维护成本高等问题。
因此,在应用液冷却技术时,需要根据实际情况进行评估和选择。
四、热回收技术热回收技术是一种能源利用的方式。
它通过将机柜产生的热量进行回收再利用,用于供暖、热水或其他用途。
热回收技术可以提高能源的利用效率,减少能源的浪费。
在数据中心中,机柜产生的大量热量如果能够得到合理的回收利用,将有效降低数据中心的能源消耗,实现可持续发展。
综上所述,数据中心机柜冷却技术是确保数据中心正常运行的关键因素之一。
热交换器冷却技术、风冷却技术、液冷却技术和热回收技术都是常见的冷却技术。
根据实际情况和需求,选择适合的冷却技术对于提高数据中心的能效、降低能源消耗具有重要意义。
数据中心制冷与空调设计标准
数据中心制冷与空调设计标准是一组建议性的设计准则,其目的是提高数据中心中服务器的效率和可靠性,使服务器能够保持在最佳的温度范围之内,以确保其正常运作。
首先,数据中心设计应以室内恒温为基准,设置定温控制系统,使室内恒温稳定。
这样可以保证冷却系统在合理的温度范围内运行,可改善服务器的可靠性和性能。
室内恒温从23℃至27℃之间,具体范围可按服务器要求进行调整。
其次,空调设备要具备容量充足的功能。
并且设置合适的出风口,以确保空调的高效性和可靠性。
第三,设备的布局应充分利用数据中心的冷却系统。
最佳的方式是将服务器摆到空间的中间部分,避免壁或柜靠近屋外,以免空调的散热和冷热混乱,影响系统的性能。
最后,冷却装置应采用水冷、风冷或热晴式冷却方式,以确保温度的平衡,使服务器内部高效地冷却。
当一种冷却方式不能满足数据中心的容量需求时,可以采取多种冷却方式来调节服务器的温度,以保证服务器的高可靠性。
以上是数据中心制冷与空调设计标准的总体要求,旨在通过提高服务器温度来提升数据中心的运行稳定性。
希望贯彻这些标准,以确保数据中心的高可靠性。
数据中心常见冷却方式介绍(5):AHU风墙空调数据中心机房内部温湿度环境的控制要依靠室内空调末端得以实现,机房空调具有高效率、高显热比、高可靠性和灵活性的特点,能满足数据中心机房日益增加的服务器散热、湿度恒定控制、空气过滤及其他方面的要求。
随着不同地域PUE的严苛要求以及高密度服务器的广泛应用,数据中心新型的冷却方式被越来越开发及使用。
下面分别介绍几种数据中心传统与新型的冷却方式。
1. AHU风墙空调系统组成AHU(Air Handle Unit)组合式空调箱:主要是抽取室内空气(return air) 和部份新风以控制出风温度和风量来并维持室内温度。
AHU机组组成如下图所示。
机组主要由框架、两到多组冷冻水盘管、室内EC风机、电磁两通调节阀、控制系统、进出风温湿度传感器、室外新风温湿度传感器、室外新风调节阀、室内回风调节阀、加湿系统、冷冻水管路等组成。
图1 AHU机组结构图2. 运行原理2.1 AHU风墙空调本体两种运行模式第一种模式为内循环模式,AHU机组放置在空调机房,侧送风至主机房,冷却IT服务器,热排风经热通道顶部设置的回风口进入吊顶静压箱,回至空调机组。
每台AHU机组配有空气过滤段,多个冷冻水盘管,多个EC风机,控制单元。
第二种运行模式为风侧自然冷却模式,AHU机组放置在空调机房,侧送风至主机房,冷却IT服务器,热排风经热通道顶部设置的回风口进入吊顶静压箱,根据室外空气焓值(温度、湿度计算得出)控制新风、回风、排风的比例,充分利用室外新风,节约能源。
图2 AHU系统原理图2.2 AHU风机转速控制逻辑送风机转速控制主要依据是AHU回风温度进行转速调速,当控制器检测到回风温度升高后,控制器将发指令让风机转速提高,同时根据监测到的送风静压值异常时可晋级停止风机运转。
空调检测到的实际的回风温度与设定的回风温度的差值作为风机转速调节的依据。
图3 风机转速控制逻辑2.3 AHU电磁两通阀控制逻辑冷冻水流量控制主要依据为空调的送风温度,当送风温度高于送风温度设定值时增大水流量;当送风温度低于送风温度设定值时减小水流量;冷冻水流量的控制也可以设为依据远程IT机房的温度值控制。
风冷氟泵自然冷列间空调与数据中心PUE管控一、摘要摘要:《中国联通数据中心电能利用效率(PUE)指导意见》对未来新建数据中心PUE提出了明确要求。
对自然冷的利用程度,是风冷制冷系统降低PUE的关键。
本文将针对风冷氟泵自然冷技术,探讨风冷氟泵自然冷列间系统相对于传统列间制冷系统对机房PUE的影响。
结轮为:采用风冷氟泵自然冷列间系统,在高回风温度场景,全年制冷系统耗电量相对于传统列间制冷系统节省约40%,满足机房PUE≤1.3的要求。
二、关键词关键词:PUE;自然冷;风冷氟泵;节能。
三、正文(一)背景在双碳战略以及PUE新标准的大背景下,各地对压降数据中心的PUE值有迫切需求。
制冷系统是基础设施中的运营商和数据中心耗电大户,也是节能的主要目标。
对于传统空调来讲,压缩机在工作过程中,会对冷媒进行压缩,使低压蒸汽向高温高压蒸汽转变,在此过程中,产生的能量消耗往往较大。
处于过渡季节以及存在自然冷源利用情况下,不需要讲压缩机开展,也能使空调器达到制冷效果,产生的供冷凉,可以符合室内对于冷负荷的实际需求,得到良好节能效果,此种技术为自然冷空调节能。
就南京地区而言,其所处位置是长江流域,因此气温不会过低,低于0℃的室外温度在全年中的占比较少。
氟泵空调在近几年发展中,突破了自身的效果限制、范围限制,整体功能获得了明显提升。
空调中“双擎”混合制冷的运用,能使室外温度达到20°C时,便开始节能运行,也能够使室外自然冷源获得充分运用,促进整机运能效比获得极大程度提升。
对于氟泵空调来讲,其为机房精密空调,可以基于室外温度环境出现的变化实现电控调节,通过氟泵节能单元的运用,将压缩机代替,促进机组整体功耗减少,从特点上来讲,主要体现在这几方面:首先,结合原本制冷系统当中冷凝器以及蒸发器,并需要进行设备投资,也不会占据空间;其次,并不会影响机房湿度以及洁净度;再次,两种循环使用的制冷剂为同一种,机房中不会出现水患;最后,具有良好节能效果,实际投资不高。
PART1数据中心大品牌都用SMARDT000亿度2.5万数据中心.0平均PUE数据中心数量多、能效低、能耗高321数据中心全生命期陈本分析电费70%建设费用20%人工5%房租5%某大型数据中心运营10年总成本构成数据中心建设成本与电力成本的平衡•三年电费总和•设计费用•施工费用•设备费用•维护费用运营电费建设费用对于PUE=2.0的大型数据中心而言,假设运营周期为10年,则总成本中70%为电费,占据最大比例。
大约三年的电费便可再建一个数据中心。
➢兼顾考虑建设成本和电力成本➢考虑后期维护成本及成本回收期限制➢选择电价低的区域来降低电力成本➢短期效益、没有长期运营的规划三年电费一个数据中心数据中心10年TCO (全生命周期成本)数据中心政策约束PUEPUE<1.5☐2013年,工业和信息化部《关于进一步加强通信业节能减排工作的指导意见》:新建PUE<1.5,改造PUE<2.0。
☐2016年,《国务院关于印发“十三五”国家信息化规划的通知》:新建PUE<1.5,云计算数据中心PUE <1.4。
PUE<1.32018年,《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》:新建PUE<1.3,改造PUE<1.4.PUE<1.42018年,《北京市新增产业的禁止和限制目录》:所有城区禁止新、扩建数据中心,PUE<1.4除外。
数据中心标准放开高水温2008版主机房温度23±1℃,冷冻水温度7℃,送风温度13℃2017版冷通道温度17~28℃,冷冻水温度11~22℃,送风温度17~28℃安全可靠地降低PUE 的关键因素1高效设备:高可靠性高节能性低故障维护率2自然冷源利用:自然冷却废热回收3气流组织优化:冷/热通道封闭风量匹配机柜盲板4系统集控:智能算法自动控制智慧运维安全可靠地降低P U E的关键因素数据中心空调系统近年来行业内部分创新冷却方式,成本太高或应用过于片面,我们认为并不是绿色数据中心主流新风自然冷却河、湖水自然冷却芯片级液冷PART2数据中心更新、改造解决方案1水冷磁悬浮冷水机组高效冷源系统高效输配系统高效机房空调系统高效冷却系统水冷磁悬浮冷水机组板式换热器开式冷却塔水冷自然冷却解决方案也可以替换为闭式冷却塔或定制制冷剂循环泵供回水温:15/21℃48.50%26.50%25%主机制冷完全自然冷却混合制冷0%10%20%30%40%50%60%70%80%90%100%05101520253035123456789101112武汉市气候特征平均干球温度平均湿球温度平均相对湿度1200RT机房全年制冷方案:单位自然冷却+主机+水泵+冷却塔主机+水泵+冷却塔1台600RT磁悬浮+1台600RT工频螺杆自然冷却*年均运维费用万元227 242节能率% 6.1%/设备投资成本差价万元12/运维降低万元14.8 /投资回收期年0.8 /注,计算全年有3个月室外空调计算干球温度再10℃以下,此时开启自然冷却模式。
数据中心新型冷却方式介绍(1):顶置对流空调系统从2018年开始,北京、上海、深圳等一线城市,陆续出台“PUE新政”。
2018年9月,北京提出全市范围内禁止新建和扩建互联网数据服务、信息处理和存储支持服务数据中心(PUE值在1.4以下的云计算数据中心除外)。
上海也出台类似政策,存量改造数据中心PUE不得高于1.4,新建数据中心PUE限制在1.3以下。
2019年4月,深圳提出PUE1.4以上的数据中心不再享有支持,PUE低于1.25的数据中心,可享受新增能源消费量40%以上的支持。
为了降低PUE,近几年数据中心新型末端冷却方式不断涌现,顶置对流空调、热管、水冷背板、液体冷却等等。
接下来,我将对新型冷却方式进行介绍。
1. 顶置对流空调系统组成顶置对流空调系统组机组主要由框架、冷冻水盘管、进出风温湿度传感器、控制系统、电动压差调节平衡阀、冷冻水管路等组成。
顶置对流空调安装位置为服务器机柜进风面上方,无需设置风机,利用空气的物理特性,冷、热空气自然流动。
某大型数据中心采用这种新型冷却方式。
单排设置20台机柜,2排一组,每排机柜上面设置3台顶置对流空调,每组设置6台顶置对流空调,按5+1冗余模式配置。
图1 顶置对流空调系统示意图一图2 顶置对流空调系统示意图二图3 顶置对流空调接管示意图2.运行原理顶置对流空调安装位置为服务器机柜进风面上方,无需设置风机,利用空气的物理特性,冷、热空气自然流动。
顶置对流空调运行时,气流组织CFD模拟图如下。
15℃低温冷冻水进入顶置对流空调的冷冻水盘管,被机房热空气加热后,成为21℃高温冷冻水,高温冷冻水经冷冻站冷水机组/板式换热器冷却后,再次成为15℃冷冻水,送往机房顶置对流空调,完成冷冻水循环。
服务器自带风扇,会使得热通道内压力大于冷通道。
服务器排出的32℃热风在热通道自然上升,在机柜顶部及顶置对流空调前部集聚,经冷冻水盘管冷却,成为18℃冷风,机组被服务器自带风扇吸入服务器内部降温,完成空气循环。
数据中心精密空调选型推荐方案数据中心是现代企业不可或缺的重要设施,为了确保数据中心的正常运行和数据的安全性,精密空调系统是必不可少的设备之一。
本文将针对数据中心的特殊需求,提出一套精密空调选型推荐方案,以确保数据中心的稳定性和高效性。
一、需求分析1. 温度控制:数据中心中的服务器和网络设备对温度要求非常高,通常要求在20°C至25°C之间,温度波动范围在±1°C以内。
2. 湿度控制:数据中心中的设备对湿度也有一定的要求,通常要求在40%至60%之间,湿度波动范围在±5%以内。
3. 空气质量:数据中心中的设备对空气质量要求较高,需要过滤灰尘、细菌和其他微粒物质。
4. 可靠性:数据中心对空调系统的可靠性要求较高,需要能够长时间稳定运行,且具备故障自动检测和报警功能。
5. 能效性:数据中心对能源消耗的要求较高,需要选择能效比较高的空调系统,以降低运营成本。
二、选型推荐方案经过对数据中心的需求分析,我们推荐以下方案来选择适合的精密空调系统:1. 制冷量计算首先需要计算数据中心的总制冷量,以确定所需的空调系统容量。
制冷量的计算公式为:制冷量 = 设备总功耗 ×设备散热系数设备总功耗可以通过设备的额定功率和数量来计算,设备散热系数可以根据设备的类型和工作状态来确定。
2. 温度控制为了满足数据中心的温度要求,推荐选择具有精密温度控制功能的空调系统。
这种空调系统可以通过传感器实时监测温度,并根据设定的温度范围进行自动调节。
同时,空调系统还应具备温度报警功能,一旦温度超出设定范围,系统能够及时发出警报。
3. 湿度控制为了满足数据中心的湿度要求,推荐选择具有湿度控制功能的空调系统。
这种空调系统可以通过传感器实时监测湿度,并根据设定的湿度范围进行自动调节。
同时,空调系统还应具备湿度报警功能,一旦湿度超出设定范围,系统能够及时发出警报。
4. 空气质量为了确保数据中心的空气质量,推荐选择具有高效过滤功能的空调系统。