当前位置:文档之家› 数据中心空调设计浅析

数据中心空调设计浅析

数据中心空调设计浅析
数据中心空调设计浅析

数据中心空调设计浅析

数据中心空调设计浅析

摘要随着网络时代的发展,服务器集成度的提高,数据中心机房的能耗急剧增加,这就要求数据中心的空调设计必须高效、节能、合理、经济,本文结合某工程实例浅谈下数据中心空调的特点和设计思路。

关键词:数据中心气流组织机房专用空调节能措施

数据中心是容纳计算机房及其支持区域的一幢建筑物或是建筑

物中的一部分。数据中心空调系统的主要任务是为数据处理设备提供合适的工作环境,保证数据通信设备运行的可靠性和有效性。本文结合工程实例浅析一下数据中心机房空调设计的特点和机房空调的节

能措施。

一、冷源及冷却方式

数据中心的空调冷源有以下几种基本形式:直接膨胀风冷式系统、直接膨胀水冷式系统、冷冻水式系统、自然冷却式系统等。

数据中心空调按冷却方式主要为三种形式:风冷式机组、水冷式机组以及双冷源机组。

二、空调设备选型

(1)空气温度要求

我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成 3级。对于A级与B级电子信息系统机房,其主机房设计温度为2 3±1°C,C级机房的温度控制范围是1 8―2 8°C 。

(2)空气湿度要求

我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成3级。对于A级与B级电子信息系统机房,其主机房设计湿度度为40―55%,C级机房的温度控制范围是

40―60%。

(3)空气过滤要求

在进入数据中心机房设备前,室外新风必须经过滤和预处理,去除尘粒和腐蚀性气体。空气中的尘粒将影响数据机房设备运行。

(4)新风要求

数据中心空调系统必须提供适量的室外新风。数据通信机房保持正压可防止污染物渗入室内。

三、气流组织合理布置

数据中心的气流组织形有下送上回、上送侧回、弥漫式送风方式。

1.下送上回

下送上回是大型数据中心机房常用的方式,空调机组送出的低温空气迅速冷却设备,利用热力环流能有效利用冷空气冷却率,如图1所示为地板下送风示意图:

图1地板下送风示意图

数据中心内计算机设备及机架采用“冷热通道”的安装方式。将机柜采用“背靠背,面对面”摆放。在热空气上方布置回风口到空调系统,进一步提高制冷效果。

2.上送侧回

上送侧回通常是采用全室空调送回风的方式,适用于中小型机房。空调机组送风出口处宜安装送风管道或送风帽。回风可通过室内直接回风。如图2所示为上送侧回示意图:

图2上送侧回示意图

四、节能措施

1、选择合理的空调冷源系统方式

在节能型数据中心空调冷源形式的选择过程中,除了要考虑冷源系统形式的节能性以外,还要综合考虑数据中心的规模、数据中心的功率密度、数据中心的投资规模、工作人员的维护能力、数据中心所在地的气候条件以及数据中心的基础条件等。

2、设计合理的室内空气温湿度

越低的送风温度意味着越低的空调系统能量利用效率。笔者认为冷通道设计温度为l5―22℃,热通道为25―32℃。

3、提高气流组织的效率

数据中心空调气流组织应尽量避免扩散和混合。在数据中心机房

内提高气流组织的效率就要避免冷热空气的混合,使空调产生的冷量能够充分被计算机设备利用更好地来冷却CPU和各种芯片。

五、案例论述:

1 项目概述

该项目位于青岛市,总建筑面积为21915m2,地下一层,地上四层,数据机房位于地下室部分和首层,IDU机房及辅助用房总建筑面积约为5000 m2。其中包括五个IDU机房、一个核心机房、一个UPS 机房、一个低压配电室、一个高压配电室和一个电池间。见图3首层空调平面布置图。

图3首层空调平面布置图

2 设计参数及空调方案分析.

2.1 室内设计参数(见表1)

2.2 机房空调冷负荷的构成

机房空调负荷包括:由机房内设备的散热、围护结构传热、通过外窗进入的太阳辐射热、人体散热、照明装置散热引起的负荷,新风负荷及伴随各种散湿过程产生的潜热负荷。该项目的设备散热量为3105 KW,加上UPS间设备散热量及围护结构冷负荷后,需由机房专用空调承担的冷负荷约为3405KW。

2.3 空调系统冷源及水系统

空调冷源采用待自然冷却的功能风冷冷水机组,本项目采用四台冷量为1200KW的待自然冷却的风冷冷水机组(三用一备)。冷冻水采用一次泵系统变流量运行,冷冻水供回水温度为10/15°C。精密空调机组自带电动三通阀,冷冻水管道设计成环路,及按照双路设计。

2.4空调方式

(1)IDU机房:精密空调机组安装在IDU机房内,同机架排列方向垂直,冗余配置。空调室内末端向活动地板下供应冷却空气,并通过有孔地板或格栅风口根据机架和设备的需要向冷通道内输送冷

却空气。热通道内出来的回流热空气通过机柜上部空间回至空调室内末端。

(2)核心机房:核心机房采用2台制冷量160.4kw的精密空调机组,由于核心机房C列内安装有高热密度机柜,额定功耗在18kW。

3 空调自控系统

3.1空调房间的温度控制

精密空调自带现场控制器(DDC)根据房间温度信号控制变频器调节送风机转速,通过调节送风量使室温恒定。

3.2冷冻机根据用户端的负荷和机器运行供冷能力自动选择冷冻机运行台数,满足末端用冷需求。

4 节能环保

采用带自然冷却的冷水机组,可起到良好的节能效果;采用高效率的冷水机组、水泵,从设备自身降低能耗;空调冷冻水泵、精密空调风机采取调速措施,降低能耗;提高冷冻水供、回水温度,从而提高冷冻机运行效率;适当增大冷冻水的供、回水温差,以减小水泵流量从而实现节能;空调系统设有完备的自动控制系统,实现空调系统的智能化运行,可靠、节能;冷水机组、水泵等选用低噪声设备,其进出口接管处均设置柔性接管,底部设置减振台座或橡胶减振垫;空调系统供回水管均采用难燃型闭泡橡塑绝热材料保温,可靠、保温效果好,风管绝热层最小热阻为0.80m2K/W。

结语:

计算机空调系统是计算机房设计的关键,该系统必须保证计算机系统能够连续稳定地运行,排除计算机设备及其他热源所发出的余热,维持机房内恒温恒湿的要求。如何保证机房内的温度、湿度、洁净度和气流速度符合要求,主要依靠机房空调系统来实现。

参考文献:

[1]《电子信息系统机房设计规范》(GB50174 ― 2008 )北京:中国计划出版社,2009

[2]陆耀庆.《实用供热空调设计手册》2版.北京:中国建筑工业出版社,2008

[3]马最良,姚杨.《民用建筑空调设计》.北京:化学工业出版社,2003

------------最新【精品】范文

数据中心机房空调系统气流组织研究与分析

IDC机房空调系统气流组织研究与分析 摘要:本文阐述了IDC机房气流组织的设计对机房制冷效率有重要影响,叙述现有空调系统气流组织的常见形式。同时重点对IDC机房常见的几种气流组织进行了研究与分析,对比了几种气流组织的优缺点,从理论与实践中探讨各种气流组织情况下冷却的效率。 关键词:IDC、气流组织、空调系统 一、概述 在IDC机房中,运行着大量的计算机、服务器等电子设备,这些设备发热量大,对环境温湿度有着严格的要求,为了能够给IDC机房等提供一个长期稳定、合理、温湿度分布均匀的运行环境,在配置机房精密空调时,通常要求冷风循环次数大于30次,机房空调送风压力75Pa,目的是在冷量一定的情况下,通过大风量的循环使机房内运行设备发出的热量能够迅速得到消除,通过高送风压力使冷风能够送到较远的距离和加大送风速度;同时通过以上方式能够使机房内部的加湿和除湿过程缩短,湿度分布均匀。 大风量小焓差也是机房专用空调区别于普通空调的一个非常重要的方面,在做机房内部机房精密空调配置时,通常在考虑空调系统的冷负荷的同时要考虑机房的冷风循环次数,但在冷量相同的条件下,空调系统的空调房间气流组织是否合理对机房环境的温湿度均匀性有直接的影响。 空调房间气流组织是否合理,不仅直接影响房间的空调冷却效果,而且也影响空调系统的能耗量,气流组织设计的目的就是合理地组织室内空气的流动使室内工作区空气的温度、湿度、速度和洁净度能更好地满足要求。 影响气流组织的因素很多,如送风口位置及型式,回风口位置,房间几何形状及室内的各种扰动等。 二、气流组织常见种类及分析: 按照送、回风口布置位置和形式的不同,可以有各种各样的气流组织形式,大致可以归纳以下五种:上送下回、侧送侧回、中送上下回、上送上回及下送上回。 1) 投入能量利用系数 气流组织设计的任务,就是以投入能量为代价将一定数量经过处理成某种参数的空气送进房间,以消除室内某种有害影响。因此,作为评价气流组织的经济指标,就应能够反映投入能量的利用程度。 恒温空调系统的“投入能量利用系数”βt,定义: (2-1) 式中: t0一一送风温度, tn一一工作区设计温度, tp一一排风温度。 通常,送风量是根据排风温度等于工作区设计温度进行计算的.实际上,房间内的温度并不处处均匀相等,因此,排风口设置在不问部位,就会有不同的排风温度,投入能量利用系数也不相同。 从式(2—1)可以看出: 当tp = tn 时,βt =1.0,表明送风经热交换吸收余热量后达到室内温度,并进而排出室外。 当tp > tn时,βt >1.0,表明送风吸收部分余热达到室内温度、且能控制工作区的温度,而排风温度可以高于室内温度,经济性好。 当tp < tn时,βt <1.0,表明投入的能量没有得到完全利用,住住是由于短路而未能发挥送入风量的排热作用,经济性差。 2) 上送下回 孔板送风和散流器送风是常见的上送下回形式。如图2-1和图2-2所示.

数据中心暖通空调选型

数据中心暖通空调选型 发表时间:2018-09-11T15:42:16.617Z 来源:《建筑学研究前沿》2018年第11期作者:龙志威 [导读] 由于数据中心内IT负载的电能最终都将转化为热能,所以为维持数据中心正常运行的空调解决方案就变得至关重要。 东莞深证通信息技术有限公司 523690 摘要:数据中心空调系统的主要任务是为数据处理设备提供合适的工作环境,保证数据通信设备运行的可靠性和有效性。本文结合工程实例浅析一下数据中心机房空调设计的特点和机房空调的节能措施。 关键词:数据中心;暖通空调;选型 引言:由于数据中心内IT负载的电能最终都将转化为热能,所以为维持数据中心正常运行的空调解决方案就变得至关重要。 1、工程项目概况 本工程为某市某企业数据中心机房,该企业数据中心位于一幢28层高层建筑的14层,15层为本高层建筑的消防避难层,14层为标准办公楼层,需利用14层的办公空间建设成为数据中心机房。本工程数据机房采用精密空调进行配置,因此我们需要对机房区域的热负荷进行计算,根据所得的热负荷才能选择所用的精密空调。由于机房的热负荷来源很多,且目前我们无法获知所有热负荷的数量,因此在没有确定各项热负荷具体数量之时,可以按照电子计算机机房通用的估计方法进行机房空调制冷量的预估。 2、机房区域内制冷量的计算及选配方案 在净空高度为2.5~3.7m时,其计算机房按300-400 kcal/h.m2来取值。由于主机房设备较多,在此我们建议取值为400kcal /h.m2 (1W=860kcal)根据上述计算公式,主机房面积为154m2,所需要的总制冷量即、:400kcal×265 m2÷860=71.6KW;根据以上计算,工程项目在数据机房内配置了4台制冷量为24.6KW,“艾默生”Liebert.PEX 系列P1025DD13JHS12K1D000PA000机房专用精密空调,采用冷却水加冷冻水双冷源空调,送风方式采用下送风方式。组成3+1冗余方式对机房区域保持环境的恒温恒湿,每台单机总制冷量为24.6 KW,3台精密空调总冷量为73.8KW。数据机房精密空调介绍: 2.1艾默生Liebert.PEX系列机房专用精密空调描述 Liebert.PEX─面向全球的高端精密空调系统,Liebert.PEX2机组是基于艾默生全球研发与设计平台的高端机组,产品系列完备,具有风冷、水冷、乙二醇冷、双冷源(风冷+冷冻水、水冷+冷冻水、风冷+Freecooling、水冷+Freecooling)、冷冻水和冷冻水双盘管机型制冷量范围宽,风冷、水冷、乙二醇冷机组20kW~100kW,冷冻水机组28~151kW。 2.2Liebert.PEX机组的特点 具有高可靠性、高节能性、全寿命低成本。在同等制冷量条件下,占地面积最小。侧面及背面不需要维护空间,前面只需要600mm维护空间可拆卸后搬运,保证重新组装与整机无差别,适合特殊场地搬运(如利用小电梯或狭小通道)艾默生Copeland高效涡旋式压缩机,直接适合环保制冷剂(R407C)室内EC风机标配,节能且满足不同机外余压需求,下出风机组EC风机下沉设计,使整机更节能大面积V型蒸发器,快速除湿设计,确保节能独特的高效远红外加湿系统,加湿速度快,适应恶劣水质,低维护量,全中文图形显示屏以及iCOM强大的群控与通讯功能(见图一)。 图一艾默生1Liebert.PEX机组 2.3Liebert.PEX机组的设计 Liebert.PEX风冷系统的室内机由压缩机、蒸发器、加热器、风机、控制器、远红外加湿器、热力膨胀阀、视液镜、干燥过滤器等主要部件组成。水冷系列还包括高效板式换热器、电动球阀。室内侧制冷系统和水系统中可能涉及维护、更换的器件全部采用易拆卸的Rotalock连接方式,使维护更方便。 2.4主机房冷负荷估算 主机房面积:270m2;主机房冷负荷主要包括服务器设备冷负荷、照明冷负荷、建筑围护结构冷负荷、新风冷负荷、以及操作人员冷负荷:服务器设备冷负荷估算:272.8KW=(64-7)*5KVA*0.8+7*8KVA*0.8;(功率因素取值0.8、服务器机柜设备散热量取值5KVA/台、小型机机柜设备散热量取值8KVA);照明冷负荷估算:6.75KW=25 W/ m2*270 m2,(照明冷负荷单位面积取值25 W/m2);建筑围护结构冷负荷估算:13.5KW=50 W/ m2*270 m2,(建筑围护结构冷负荷单位面积取值50 W/m2);新风冷负荷:13.5KW=50 W/ m2*270 m2,(新风风量按照维持机房正压,新风冷负荷取值为单位面积50 W/m2);操作人员冷负荷:1.3KW=0.13KW/人*10人,以10人计算;综上所述,主机房总的冷负荷为:307.85KW=272.8KW+6.75KW+13.5KW+13.5KW+1.3KW。 2.5空调选配方案 经过主机房的冷负荷进行估算后,根据Liebert.PEX机组空调显制冷量的技术参数及风量,可以选取相应的机房空调的型号。主机房空调按照N+1方式进行配置,即满足主机房的冷负荷,再预留出1台的冗余制冷量。空调机组可组网轮换运行,均衡每台机组运行时间,当某一台机组出现故障,备用机组自动启动,提高空调系统可靠性。 由于室内外空调机组分别安装在建筑的14、15层,在空调选配时,应注意空调机组的体积,如体积比较大,必须经过空调机的拆解,设备搬运到位后再进行组装。 3、新、排风系统 本工程新、排系统全部由大楼统一设计及施工,数据机房要求维持一定的正压,数据机房与其它房间、走廊间的压差不应小于4.9Pa,

公共机构绿色数据中心建设指南

公共机构绿色数据中心建设指南 1 范围 本标准规定了公共机构绿色数据中心建设的基本要求和数据中心机房物理环境、不间断电源系统、供配电系统、空调系统、建筑装修、综合监控系统、限用物质限量等方面的要求。 本标准适用适用于公共机构的各类数据中心的新建、改建和扩建工程,其他各类数据中心亦可参照执行。 2 规范性引用文件 下列文件对于本文件的应用是必不可少的。凡是注日期的引用文件,仅注日期的版本适用于本文件。凡是不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。 计算机场地通用规范 建筑材料及制品燃烧性能分级 防火门验收规范 电磁兼容限值谐波电流发射限值 信息技术用户建筑群的通用布缆 电子电气产品中限用物质的限量要求 防静电活动地板通用规范 数据中心资源利用第部分:电能能效要求和测量方法 建筑设计防火规范 供配电系统设计规范 火灾自动报警系统设计规范 机械防盗锁 3 术语和定义 下列术语和定义适用于本文件。 3.1 数据中心 由计算机场地(机房),其他基础设施、信息系统软硬件、信息资源(数据)和人员以及相应的规章制度组成的实体。 [ ,定义。] 3.2 绿色数据中心 全生存期内,在确保信息系统及其支撑设备安全、稳定、可靠运行的条件下,能取得较大的能源效率和较小的环境影响的数据中心。 3.3

公共机构 全部或者部分使用财政性资金的国家机关、事业单位和团体组织。 3.4 主机房 主要用于电子信息处理、存储、交换和传输设备的安装和运行的空间。包括服务器机房、网络机房、存储机房等功能区域。 3.5 辅助区 用于电子信息设备和软件的安装、调试、维护、运行监控和管理的场所,包括进线间、测试机房、总控中心、消防和安防控制室、拆包区、备件库、打印室、维修室等区域。 3.6 支持区 为主机房、辅助区提供动力支持和安全保障的区域,包括变配电室、柴油发电机房、电池室、空调机房、动力站房、不间断电源系统用房、消防设施用房等。 3.7 行政管理区 用于日常行政管理及客户对托管设备进行管理的场所,包括办公室、门厅、值班室、盥洗室、更衣间和用户工作室等。 3.8 灾备机房 用于灾难发生时,接替生产系统运行,进行数据处理和支持关键业务功能继续运作的场所,包括限制区、普通区和专用区。 3.9 自然冷却 利用非通过主动制冷的自然界的冷源来实现冷却的制冷技术。 3.10 不间断电源系统 在市电断电或发生异常等电网故障时,不间断地为用户设备提供电能的一种能量转换装置。 [ ,定义。]

暖通空调设计毕业设计说明书

摘要 本设计为哈尔滨望江集团办公楼空调系统工程设计。哈尔滨望江集团办公楼属中小型办公建筑,本建筑总建筑面积4138m2,空调面积2833m2。地下一层,地上八层,建筑高度33.9m。全楼冷负荷为191千瓦,全楼采用水冷机组进行集中供给空调方式。 此设计中的建筑主要房间为办公室,大多面积较小,且各房间互不连通,应使所选空调系统能够实现对各个房间的独立控制,综合考虑各方面因素,确定选用风机盘管加新风系统。在房间内布置吊顶的风机盘管,采用暗装的形式。将该集中系统设为风机盘管加独立新风系统,新风机组从室外引入新风处理到室内空气焓值,不承担室内负荷。风机盘管承担室内全部冷负荷及部分的新风湿负荷。风机盘管加独立新风系统由百叶风口下送和侧送。水系统采用闭式双管同程式,冷水泵三台,两用一备;冷却水泵选三台,两用一备。 在冷负荷计算的基础上完成主机和风机盘管的选型,并通过风量、水量的计算确定风管路和水管路的规格,并校核最不利环路的阻力和压头用以确定新风机和水泵。 依据相关的空调设计手册所提供的参数,进一步完成新风机组、水泵、热水机组等的选型,从而将其反应在图纸上,最终完成整个空调系统设计。 关键词:风机盘管加独立新风系统;负荷;管路设计;制冷机组:冷水机组

Abstract The design for the Harbin Wangjiang Design Group office building air conditioning system. Harbin Wangjiang Group is a small and medium-sized office building office buildings, the total floor area of building is 4138m2, air-conditioned area is 2833m2. There are eight floor of the building, building height is 33.9m. Cooling load for the entire floor, 191 kilowatts, the whole floor using Central Cooling Chillers to focus on the way . This design of the main room of the building for office, most of them is very small, and the rooms are not connected, the selected air-conditioning system should be able to achieve independent control of each room, considering the various factors to determine the selection of fan-coil plus fresh air system. Arrangement in the room ceiling fan coil units, using the dark form of equipment. Set the focus on fan-coil system, plus an independent air system, fresh air from the outdoor unit to deal with the introduction of a new wind to the indoor air enthalpy value, do not bear the load of indoor. All bear the indoor fan-coil cooling load and part of its new rheumatoid load. Fan-coil plus an independent air system sent by the Venetian and the under side air delivery. Closed water system with a dual-track program, three cold-water pump, dual-use a prepared; cooling pumps three elections, one prepared by dual-use. In the cooling load calculation based on the completion of the selection of host and fan coil units, and air volume, the calculation of water, the wind pipe and water pipes to determine the specifications of the road and check the resistance to the most disadvantaged and the loop to determine the pressure head new fans and pumps. Based on the relevant manuals provided by air-conditioning design parameters, and further completion of the new air units, water pumps, hot water units, such as the selection, which will be reflected in their drawings, the final design of the entire air-conditioning system Key words: PAU+FCU systems; load; pipeline design; refrigeration machine; Chillers

新一代绿色数据中心设计及新技术研究

新一代绿色数据中心设计及新技术研究 王东伟 (上海延华智能科技集团股份有限公司,上海 200060) 摘 要:通过对下一代绿色数据中心发展趋势、绿色指标和适用技术的研究,从六层体系架构逐一对构造绿色数据中心的关键技术等设计要素进行了分析,提供了绿色数据中心建设的一种途径和方法。 关键词:数据中心;绿色;设计;新技术 1 新一代数据中心建设挑战 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心的建设正在发展成为一个具有战略重要性的新兴产业,成为新一代信息产业的重要组成部分和未来3-5年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息、安全、可控和可管的关键所在,数据中心发展政策和布局建设已上升到国家战略层面。 纵观新趋势下数据中心的建设极具挑战性,呈现出规模化整合、绿色环保节能、高密度和高容量、负载动态自适应、可视和高度自动化的特点,可以概括为以下四点:其一,建设运维模式向一体化方式转变。传统的数据中心的建设包括需求的评估,设计、土建和系统的部署等。而现在模块式数据中心,一体化的解决方案使建设模式走向简约化。 其二,数据中心的IT基础设施,正在加速云化或池化,从网络资源、存储资源到计算资源对用户来说都是透明的,符合虚拟化管理、一体化解决方案的趋势。 其三,数据中心绿色和节能技术的采用。由于数据中心规模、资源虚拟化和海量数据集中化,IT设备本身和机房设备的高耗能,在绿色、节能、环保和降低运营成本等方面都有量化要求。 其四,数据中心的运维的管理,正趋于自动化的方式。由于业务创新和IT复杂度不断的提升,出现了大量第三方的服务商和基于数据中心管理的系统软件产品。 国内目前还没有关于绿色数据中心的建设以及能耗管理的标准,政府和国内相关部门领正在制订符合我国国情的行业指导意见和规范。本文结合目前已建和在建工程以及

数据中心空调设计浅析

数据中心空调设计浅析 数据中心空调设计浅析 摘要随着网络时代的发展,服务器集成度的提高,数据中心机房的能耗急剧增加,这就要求数据中心的空调设计必须高效、节能、合理、经济,本文结合某工程实例浅谈下数据中心空调的特点和设计思路。 关键词:数据中心气流组织机房专用空调节能措施 数据中心是容纳计算机房及其支持区域的一幢建筑物或是建筑 物中的一部分。数据中心空调系统的主要任务是为数据处理设备提供合适的工作环境,保证数据通信设备运行的可靠性和有效性。本文结合工程实例浅析一下数据中心机房空调设计的特点和机房空调的节 能措施。 一、冷源及冷却方式 数据中心的空调冷源有以下几种基本形式:直接膨胀风冷式系统、直接膨胀水冷式系统、冷冻水式系统、自然冷却式系统等。 数据中心空调按冷却方式主要为三种形式:风冷式机组、水冷式机组以及双冷源机组。 二、空调设备选型 (1)空气温度要求 我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成 3级。对于A级与B级电子信息系统机房,其主机房设计温度为2 3±1°C,C级机房的温度控制范围是1 8―2 8°C 。 (2)空气湿度要求 我国《电子信息系统机房设计规范》(GB50174―2008 )中规定:电子信息系统机房划分成3级。对于A级与B级电子信息系统机房,其主机房设计湿度度为40―55%,C级机房的温度控制范围是 40―60%。 (3)空气过滤要求

在进入数据中心机房设备前,室外新风必须经过滤和预处理,去除尘粒和腐蚀性气体。空气中的尘粒将影响数据机房设备运行。 (4)新风要求 数据中心空调系统必须提供适量的室外新风。数据通信机房保持正压可防止污染物渗入室内。 三、气流组织合理布置 数据中心的气流组织形有下送上回、上送侧回、弥漫式送风方式。 1.下送上回 下送上回是大型数据中心机房常用的方式,空调机组送出的低温空气迅速冷却设备,利用热力环流能有效利用冷空气冷却率,如图1所示为地板下送风示意图: 图1地板下送风示意图 数据中心内计算机设备及机架采用“冷热通道”的安装方式。将机柜采用“背靠背,面对面”摆放。在热空气上方布置回风口到空调系统,进一步提高制冷效果。 2.上送侧回 上送侧回通常是采用全室空调送回风的方式,适用于中小型机房。空调机组送风出口处宜安装送风管道或送风帽。回风可通过室内直接回风。如图2所示为上送侧回示意图: 图2上送侧回示意图 四、节能措施 1、选择合理的空调冷源系统方式 在节能型数据中心空调冷源形式的选择过程中,除了要考虑冷源系统形式的节能性以外,还要综合考虑数据中心的规模、数据中心的功率密度、数据中心的投资规模、工作人员的维护能力、数据中心所在地的气候条件以及数据中心的基础条件等。 2、设计合理的室内空气温湿度 越低的送风温度意味着越低的空调系统能量利用效率。笔者认为冷通道设计温度为l5―22℃,热通道为25―32℃。 3、提高气流组织的效率 数据中心空调气流组织应尽量避免扩散和混合。在数据中心机房

绿色数据中心规划设计说明书

绿色数据中心规划设计 随着近年来网络及信息化建设的不断深入和发展,各种IT设备不断增加,做为IT基础设施的数据中心机房正在承受着越来越大的压力,供电、制冷、承重、消防、网络布线、备份和管理运维等方面问题不断出现,很多原有数据中心机房无法满足需要,新一代的绿色数据中心机房已经成为近年来很多单位信息化建设中的重点任务。 新一代绿色数据中心的建设的过程中,通过虚拟化资源整合、自动化管理以及能源管理等新技术的采用,消除传统服务器资源或存储资源之间的壁垒,将物理资源整合为可统一管理的资源池,通过标准化、模块化,松耦合的模式构建虚拟化云计算数据中心,使得系统得以水平无缝扩展,使用户可以按业务需求优化配置基础设施的资源使用,实现节约资源,优化计算资源使用效率,缓解或解决目前数据中心普遍存在的资源(含机柜资源、机房空间、电力资源、制冷资源,人力资源等)浪费严重的问题。但必须注意到,建设一个或者致力于管理一个绿色数据中心的过程中,只是在局部采用绿色技术,而没有一个绿色的、整体的规划,实现数据中心的整体绿色目标还是不够的,至少是不完整的。我们还需要一个整体的绿色架构规划,并在数据中心建设的不同阶段,设计相应的架构视图,确定数据中心整体的技术目标、技术方向和选项原则等,整体架构需要涵盖从数据中心选址、建筑设计甚至建材选择的过程,数据中心的电源系统设计、制冷系统

设计、布线系统设计、消防系统设计等多个方面,都要纳入整体绿色架构的设计体系。 绿色数据中心关键效率和环境特点的度量标准进行简单描述,在规划、设计数据中心的过程中可以考虑应用这些标准。 1、电源使用效率PUE 电源使用效率应该是目前在数据中心度量标准中使用最为广泛的指标,其含义就是通过关注服务器的用电成本,策略服务器环境的用电效率,追溯下该指标的由来,其实是在2006年,美国绿色网格联盟的成员建立了电源使用效率公式: 电源使用效率(PUE)=机房总用电量/IT设备用电量 解释下: IT设备用电量包括了服务器、网络、存储和外围设备及所有在数据中心用于数据计算和处理的设备; 机房总用电量包括IT设备的用电量加上所有与数据中心有关的主要配电系统、空调、制冷、以及其他所有基础设备的用电量。 PUE的值越低,表明其电源使用效率越高。完美的电源使用效率值是1.0 (这是不可能地) 这里需要注意的是:PUE的值实际上即使在一天内,都是动态变化的,随着服务器的计算负荷,外部环境温湿度升降,都会对PUE的值产生影响。 2、数据中心基础架构效率 DCIE

绿色数据中心空调系统设计方案

绿色数据中心空调系统设计方案 北京中普瑞讯信息技术有限公司(以下简称中普瑞讯),是成立于北京中关村科技园区的一家高新技术企业,汇集了多名在硅谷工作过的专家,率先将机房制冷先进的氟泵热管空调系统引进到中国。 氟泵热管空调系统技术方案适用于各种IDC机房,通信机房核心网设备,核心机房PI路由器等大功率机架;中普瑞讯对原有的产品做了优化和改良,提高节能效率的同时大大降低成本。 中普瑞讯目前拥有实用专有技术4项、发明专有技术2项;北京市高新技术企业;合肥通用所、泰尔实验室检测报告;中国移动“绿色行动计划”节能创新合作伙伴,拥有国家高新企业资质。 中普瑞讯的氟泵热管空调系统技术融合了结构简单、安装维护便捷、高效安全、不受机房限制等诸多优点,目前已在多个电信机房得到实地应用,取得广大用户一致认可,并获得相关通信部门的多次嘉奖。 中普瑞讯的ZP-RAS氟泵热管背板空调系统专门用于解决IDC高热密度机房散热问题,降低机房PUE值,该系统为采用标准化设计的新型机房节能产品,由以下三部分组成。

第一部分,室内部分,ZP-RAS-BAG热管背板空调。 第二部分,室外部分,ZP-RAS-RDU制冷分配单元。 第三部分,数据机房环境与能效监控平台。 中普瑞讯的ZP-RAS氟泵热管背板空调体统工作原理:室外制冷分配单元(RDU)机组通过与系统冷凝器(风冷、水冷)完成热交换后,RDU通过氟泵将冷却后的液体冷媒送入机房热管背板空调(BGA)。 冷媒(氟利昂)在冷热温差作用下通过相变实现冷热交换,冷却服务器排风,将冷量送入机柜,同时冷媒受热汽化,把热量带到RDU,由室外制冷分配单元(RDU)与冷凝器换热冷却,完成制冷循环。 1.室外制冷分配单元(RDU)分为风冷型和水冷型两种。制冷分配单元可以灵活选择安装在室内或室外。室外RDU可以充分利用自然冷源自动切换工作模式,当室外温度低于一定温度时,可以利用氟泵制冷,这时压缩机不运行,充分利用自然免费冷源制冷,降低系统能耗,同时提高压缩机使用寿命。 北方地区以北京为例每年可利用自然冷源制冷的时间占全年一半以上左右。从而大大降低了机房整体PUE值,机房PUE值可控制在较低的数值。 2.热管背板空调(ZP-RAS-BGA)是一种新型空调末端系统,是利用分离式热管原理将空调室内机设计成机柜背板模

绿色数据中心建设规范

绿色数据中心建设规范Green IDC Technical Specification

目录 前言.................................................................................. I 绿色IDC技术规范. (1) 1总则 (1) 2规范性引用文件 (1) 3缩略语 (3) 4数据中心建筑节能 (3) 4.1数据中心的选址 (3) 4.2机房楼建筑布局要求 (3) 4.3建筑节能设计的一般原则 (4) 4.4围护结构及其材料节能要求 (4) 5机房规划与布局 (6) 5.1机房分区 (6) 5.2机房布局规划原则 (6) 5.3数据中心机房设备布局 (7) 6 IT及网络通信系统节能 (7) 6.1 IT与CT设备选型 (7) 6.2 IT与CT设备使用 (9) 6.3 IT及CT设备的部署与维护 (9) 7机房专用空调系统节能 (10) 7.1空调系统选择原则 (10) 7.2空调设备选型 (11) 7.3空调系统配置原则 (12) 7.4空调系统节能 (12)

8供电系统节能技术要求 (14) 8.1设备选型 (14) 8.2优化供电系统 (14) 8.3无功补偿优化 (15) 8.4系统谐波治理 (16) 8.5模块化供电节能 (17) 8.6节能灯具选用 (18) 9数据中心管理节能要求 (19) 9.1 IT及网络设施节能管理 (19) 9.2基础设施节能管理 (20) 附录 (21) 附录A:本规范用词说明(规范性附录) (21) 附录B:编制说明(资料性附录) (22) 1绿色数据中心提出背景 (22) 2数据中心能耗构成 (23) 3数据中心机房的“电能利用率”(PUE) (25) 4数据中心节能的基本原则 (26) 附录C:条文说明(规范性附录) (28) 5总则 (28) 6规范性引用文件 (28) 7缩略语 (28) 8数据中心机房建筑节能要求 (28)

数据中心空调系统节能设计分析及方法探究

数据中心空调系统节能设计分析及方法探究 发表时间:2019-08-06T15:46:25.110Z 来源:《建筑学研究前沿》2019年8期作者:傅永洪 [导读] 空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 浙江新大新暖通设备有限公司浙江金华 321000 摘要:伴随着大数据时代的到来,我国的数据中心的数量与日俱增。但是数据中心的高能耗问题也成为了我国节能减排工作需要关注的一个重点问题,本文以大型数据中心空调系统作为研究对象,在分析大型数据中心空调系统的设置和特点的基础上,提出具有可实施性的节能措施,进而提高大数据中心空调系统的节能减排和能源利用率。 关键词:数据中心;空调系统;节能;分析研究 一、引言 进入大数据时代,各行各业的发展越来越离不开能够集中处理、存储和交换数据的专业数据中心,因此,各领域的数据中心建设和改造数量越来越多,规模越来越大。可以说我国的数据中心发展迅猛。但是通过系列的调查研究,可以发现我国当前的数据中心年耗电量很大,这也就意味着我国大多数的数据中心的平均电能使用效率(简称PUE=数据中心总能耗 / IT设备能耗)高,这并符合当前节能减排的发展原则。因此,我们需要通过多种形式的策略减少大数据中新的高耗能问题。其中,空调系统作为保证数据中心的稳定高效运转必不可少的措施,经过专业研究有着极大的节能减排的挖掘余地。 二、数据中心空调系统的组成 数据中心空调系统主要有制冷系统、散热系统及降温辅助系统三部分组成。 (一)制冷系统 主要是冷水机组,制冷系统的工作原理是通过转变制冷剂的高压、低压的形态,利用空气的流动性,迫使数据中心机房内部的热量流出室内。制冷系统作为保证机房温度的基础保障,是空调系统高耗能的部分之一,影响空调系统中制冷系统能源消耗的因素有机房环境温湿度、室外环境温湿度、受负载率等。 (二)散热系统 主体是风机或泵,工作原理是利用空气或水把热量从数据中心内部搬运到数据中的室外。排热系统产生足够的风量或水量以带走巨大的热量,但同时散热系统也是数据中空调系统耗能高的部分之一。影响散热能源消耗的因素是机房内部的气流组织。 (三)降温辅助 工作原理是通过冷却塔、喷头或湿式过滤器,利用水的蒸发在热量排到室外的工作过程中提供帮助。降温辅助系统可以提高换热效率,帮助空调系统把热量散发地更快。降温辅助系统的耗能比例占空调系统整体耗能比例较小。 三、数据中心空调系统高耗能解析 (一)空调系统配置不合理 由于数据中心对内部环境的恒定温湿度和空气质量都有很高的要求,但限于一些外部环境和技术升级的原因,大部分数据中心的空调系统都不引入室外新风,而采用循环风带走室内高密度的显热量。一般情况下,在室内没有湿源的条件下采用循环风的送风方式,空调系统是不用除湿的。但在数据中心空调系统的实际运行中,机房空调仍会流出冷凝水,这是因为空调在冷量输出时,冷凝水会携带冷量。因此数据中心在严格空气湿度的情况下,机房空调系统通常会一边对机房内部降温回风、冷凝除湿,另一方面又同时加湿,这种设备工作方式并不不合理,会造成大量不必要的能量浪费。 (二)机房气流组织不合理 数据中心机房内部的气流组织会对整体的散热排风效率产生极大的影响,当前的多数数据中心的气流组织都存在一些不合理的现象,主要体现在以下三方面:一是机柜排列方式不合理,把机柜面向同一个方向摆放,造成的结果就是前面服务器排出的热空气直接被后排服务器吸收,使得冷热气流混合在一起,大大拉低了空调制冷效率;二是送风通道设计不合理。一些数据中心建设规划不专业,送风管道等不符合标准,影响了空调系统的制冷能力,为了满足制冷要求会选用超出设备发热量的空调,提高了耗电量;三是地板出风口位置和空调出风口的距离设置不合理,甚至在二者之间摆放机柜,造成出风量不足、局部过热的问题。 四、数据中心空调系统的节能措施 (一)采用自然冷却技术 传统的常规制冷系统,需要制冷系统全年不间断地制冷,冷水机组全年运行运行,占据了空调系统的极大的耗电量。因此,采用自然冷却技术,可以在低温环境下,优先利用低温的自然水或风做冷源,免除了冷水机组的耗电成本。目前的自然冷却技术,主要有水侧自然冷却技术和风侧自然冷却技术两种。 (1)水侧自然冷却技术 水侧自然冷却技术,顾名思义就是在符合标准的情况下利用自然水做冷源供水。采用水侧自然冷却技术,一般需要把冷水和冷却水系统串联在板式换热器中,并把冷水的供回水温度设置成三段式:当冷却水供水温度≥16℃时,冷水机组和平时一样常规制冷,单独承担数据中心的全部冷负荷;当冷却水供水温度降到10—16℃,系统可以开始使用部分的冷水作为免费冷源,由冷水机组和免费冷源共同为空调系统提供冷负荷;当冷却水供水温度<10℃以下时,冷水机组可以在技术设置后自动停止运行,空调系统的全部冷负荷由免费冷源提供。通过自然冷却技术,在过渡季和冬季减少了压缩机工作,这种技术十分适合在我国北方沿海范围内的寒冷湿润性气候里使用,可以大大降低数据中心空调系统的PUE值。 (2)风侧自然冷却技术 风侧自然冷却技术包括和间接利用室外新风两种方式。直接利用室外新风,是指把室外低温冷空气运用过滤、除硫等方式净化处理后,直接引进数据机房内,作为冷源冷却设备,实现节能。如全年PUE仅1.07的FACEBOOK数据中心,采用的就是直接利用新风供冷。间接利用室外新风,又称“京都制冷”,东京很多的数据中心都采用这种方式,具体是指室外低温空气不直接进机房,而是通过转轮式换热器吸

浅谈数据中心建设设计

浅谈现代化数据中心设计 作者:李书 工作单位:北京捷通机房设备工程有限公司专业方向:数据中心装饰设计 日期:2011年6月

浅谈现代化数据中心设计 【摘要】本文从数据中心建设的必备要素入手,从装饰装修、供配电、空气调节、新风系统以及建筑智能系统等诸多方面阐述了作为一个现代化可持续发展的绿色机房的设计理念,为常规、常态的数据中心的建设提供了最基本的设计参考和指导。同时本文致力于推崇绿色设计理念在计算机机房设计中的应用,顺应社会发展的基本潮流,倡导绿色奥运的人文精神。 【关键词】数据中心绿色设计 【引言】数据中心基础设施的建设,很重要的一个环节就是计算机机房的建设。计算机机房工程不仅集建筑、电气、安装、网络等多个专业技术于一体,更需要丰富的工程实施和管理经验。计算机房设计与施工的优劣直接关系到机房内计算机系统是否能稳定可靠地运行,是否能保证各类信息通讯畅通无阻。由于计算机机房的环境必须满足计算机等各种微机电子设备和工作人员对温度、湿度、洁净度、电磁场强度、噪音干扰、安全保安、防漏、电源质量、振动、防雷和接地等的要求。所以,一个合格的现代化计算机机房,应该是一个安全可靠、舒适实用、节能高效和具有可扩充性的具有绿色理念的现代化机房。 【正文】一个现代化的数据中心建设一般包括以下几个系统:装饰装修系统工程;供配电系统工程;空调和新风系统工程、建筑智能化系统工程、防雷系统工程以及消防系统工程等。而每个系统工程又由若干个子系统构成,每个子系统又由若干个单项工程组成。正是由这些不可再分的单项工程共同组成了一个复杂的数据中心的有机体。下面从数据中心的基本系统设计逐一分析。 一、装饰装修系统 1、设计理念 机房内的装饰设计从风格上一般力求简洁、明快;从使用功能上吊顶和地板可拆卸以便维护,甚至有的客户要求墙面也要做到可拆卸。从功能分区上要遵循机房使用的一些基本需求。如更衣室、缓冲间、主机房、维修间、备品备件室、监控中心、参观走廊等等都是必备的功能划分。从平面布局上力求合理和实用。从层高的考虑上不可一味追求大空间这样会加大空调的配置,也不能太过低矮会造成压抑等不适感,同时过矮的情况下如果摆放机柜过密还会影响机柜操作区域的照度不够。层高一般宜在2400MM左右,不宜高于3000MM,不宜低于2200MM。 2、设计要点 隔断的设计:为了保证机房内不出现内柱,机房建筑常采用大跨度结构。 针对计算机系统的不同设备对环境的不同要求,便于空调控制、灰尘控制、噪音控制和机房管理,往往采用玻璃隔断墙将大的机房空间分隔成较小的功能区域。机房外门窗多采用防火防盗门窗,机房内门窗一般采用无框大玻璃门,这样既保证机房的安全,又保证机房内有通透、明亮的效果。 地面设计:机房工程的技术施工中,机房地面工程是一个很重要的组成部分。机房地板一般采用防静电活动地板。活动地板具有可拆卸的特点,因此,所有设备的导线电缆的连接、管道的连接及检修更换都很方便。随着材

绿色数据中心评价指标体系

绿色数据中心评价指标体系 一、评价指标体系 绿色数据中心评价指标体系由能源资源高效利用情况、绿色设计及绿色采购、能源资源使用管理、设备绿色管理和加分项等5个方面、17个指标项组成,具体详见下表。 二、指标说明及评分规则 绿色数据中心各评价指标的具体指标说明及评分规则如下。

(一)能源资源高效利用情况 1.电能利用效率(PUE) 1.1指标说明 依据《电信互联网数据中心(IDC)的能耗测评方法》(YD/T2543-2013)规定测得的连续一年内数据中心总耗电与数据中心IT设备耗电的比值。 1.2评分规则 总分60分。 所申报数据中心实际得分按照公式“80-20×PUE”进行计算。 2.设计指标达标情况 2.1指标说明 连续一年内数据中心实际能源资源利用水平与设计水平的比较。 2.2评分规则 总分3分。 连续一年内所申报数据中心实际能源资源利用水平不低于相关政府部门批复的设计指标水平得3分,否则不得分。 3.IT设备负荷使用率 3.1指标说明 连续一年内数据中心机柜实际平均用电负荷功率与数据中心机柜标称平均功率的比值。 连续一年内数据中心机柜实际平均用电负荷功率=依据《电信互联网数据中心(IDC)的能耗测评方法》(YD/T2543-2013)规定测得的测量周期为1年的IT设备耗电量÷总安装机柜数÷8760 数据中心机柜标称平均功率=数据中心机柜标称功率总和

÷总安装机柜数 3.2评分规则 总分3分。 所申报数据中心IT设备负荷使用率不低于70%,得3分;低于70%但不低于50%,得2分;低于50%但不低于30%,得1分;低于30%不得分。 4.可再生能源使用比率 4.1指标说明 连续一年内数据中心通过直接购买并应用可再生能源电力、在中国绿色电力证书认购平台上认购绿色电力证书代表电量、应用自建分布式可再生能源电站所发电力等方式使用的具有直接所有权的可再生能源电量与依据《电信互联网数据中心(IDC)的能耗测评方法》(YD/T2543-2013)规定测得的同时期内数据中心总耗电量的比值。 4.2评分规则 总分2分。 所申报数据中心可再生能源使用比率比值不低于5%得2分,低于5%但不低于2.5%,得1分。否则不得分。 5.水资源使用率 5.1指标说明 连续一年数据中心水资源消耗量与依据《电信互联网数据中心(IDC)的能耗测评方法》(YD/T2543-2013)规定测得的同时期内IT设备耗电量的比值。 5.2评分规则 总分2分。 所申报数据中心水资源使用效率不高于0.6L/kW·h得2分,否则不得分。

某云数据中心空调系统架构及运行调优

第32卷第5期 万葛亮,等:空气源热泵外机低频噪声源识别及优化 ·49· 文章编号:1671-6612(2019)01-049-7 某云数据中心空调系统架构及运行调优 冯瑞军 (北京世纪互联宽带数据中心有限公司 北京 100015) 【摘 要】 概述了北京某大型云数据中心的基本情况和暖通空调系统架构,深入分析了系统形式、设备选型 配置、节能技术措施等;通过系统研究及设计数据测算,评估能效水平。在运行管理阶段,理论分析结合运行经验对设计架构及运行模式进行了优化。实现了系统架构高稳定性并极大提高了能效指标,保障了云数据中心的稳定高效运行。最后利用一个整运营年度运行数据进一步验证了该项优化改造的合理性。 【关键词】 云数据中心;空调系统架构;管理策略优化;节能降耗 中图分类号 TU831 文献标识码 A HV AC System Architecture and Operation Optimization of a Cloud Data Center Feng Ruijun ( Beijing Century Interconnection Broad Band Data Center Co, Ltd, Beijing, 100015 ) 【Abstract 】 This paper introduces the basic situation of a large cloud data center in Beijing and the HV AC system architecture, and deeply analyzes the system form, equipment selection and configuration, energy-saving technical measures, etc.; In the operational management phase, theoretical analysis combined with operational experience to optimize the design architecture and operating mode. It achieves high stability of the system architecture and greatly improves energy efficiency indicators, ensuring stable and efficient operation of the cloud data center. Finally, the rationality of the optimization and transformation was further verified by using the operational data of the whole operation. 【Keywords 】 cloud data center; HV AC system architecture; management strategy optimization; energy saving 作者(通讯作者)简介:冯瑞军(1986.04),男,硕士,工程师,E-mail :fengruijun421@https://www.doczj.com/doc/1a6989827.html, 收稿日期:2018-11-30 0 引言 近年来,由于AI 、大数据、区块链、云计算等蓬勃发展,云数据中心处于高速发展阶段。随着中大型云数据中心的日益增多,作为重点用能单位,日益引起国家相关部门及社会高度关注,对已运营云数据中心进行节能改造,对新建云数据中心提出更高的能效指标及技术等级要求,成为行业及国家的政策鼓励方向。云数据中心的能耗主要包括:IT 能耗、暖通系统能耗、配电系统能耗[1]。作为云数据中心核心基础设施的空调系统,其能耗在云数据中心总能耗中约占35%以上。在当前能源短缺,电力资源日益紧缺的大环境下,提高空调系统的能效势在必行。作为发展下一代绿色云数据中心的前提 就是要在云数据中心全生命周期内对节能降耗贯彻执行。 规划设计和运行管理是云数据中心全生命周期中最重要的两个环节。规划设计的水平直接影响着云数据中心的架构和能耗水平,运行管理的能力关系到设计目标的实现及进一步超越。如何保证云数据中心在高可用性的前提下,以最高效的方式不间断运行成为了暖通工程师的重大挑战。本文以北京某云数据中心暖通空调系统设计及采用的节能优化措施为例进行分析研究,并通过运行管理中的优化调整完善了设计缺陷,提高了能效水平。 第33卷第1期 2019年2月 制冷与空调 Refrigeration and Air Conditioning V ol.33 No.1 Feb. 2019.049~055 万方数据

相关主题
文本预览
相关文档 最新文档