当前位置:文档之家› 提升数据中心制冷能效

提升数据中心制冷能效

提升数据中心制冷能效
提升数据中心制冷能效

提升数据中心制冷能效

数据中心节能降耗应从两个方面入手,第一是减少数据中心IT设备对电能的需求,降低其能耗和发热量,第二是提高供电和制冷系统的效率,减少不必要的浪费。

数据中心机房单位面积能耗由10年前的400~500W/m2迅速升高到目前的800~1000W/m2,而且还呈现不断上升的趋势。尤其是目前高密度IDC机房设备集成度的提高,已经使单机架的功率大幅度提升。台式服务器机架功率为1.5kW,模块式服务器机架功率为10kW左右,现在最新的刀片式服务器机架功率高达30kW。高耗电,必然产生了高发热,因此IDC机房的空调需求量也大幅度增加。

1.针对数据中心机房IT设备用电功耗及机房散热要求。应采用相对应的机房制冷系统解决方案和机房散热方案: 1)当机房机柜功耗在3~6kW时,建议采用风冷或水冷空调系统,采用面对面,背对背的冷热通道分隔的机房气流组织进行规划和建设。在当地气候允许的条件下,可考虑能效比较高的水冷空调系统和自然风冷冷却方案。当机房局部产生热岛时,可使用有气流导向的变风量送风地板,增强机房热岛区的局部散热。

2)当机房机柜功耗在8~15kW时,建议采用封闭冷通道气流组织进行规划,采用风冷或者水冷空调系统。在机房局部功率产生热岛时,可使用EC风机与送风地板,增强机房热岛区的局部散热;在机房局部产生高功率热岛时,使用机房行间空调封闭局部进行内部增强快速散热。

3)当机房机柜功耗在15~25kW时,建议采用机房行间空调,机柜封闭增强机房

热岛区的局部散热,有条件可采用冷板式机柜,柜内热空气与冷却水在柜内进行热交换的冷却技术。

4)当机房功率大于25kW时,考虑更加高效的散热冷却技术,采用液冷技术,高密度服务器高度热品质冷却系统。

从以上方案,我们可以看出,对于传统的低功率机柜,利用风冷空调制冷技术即可满足其运行条件。当功率大于10kW时,需采用封闭通道并采用行间空调制冷。当功率大于15kW时,需采用冷板式制冷技术满足机柜运行需要。当功率大于25kW时,考虑更加散热高效的浸没式液冷技术。

云数据中心发展趋势为大规模、高密度机房,传统的空调制冷方式将很难满足未来的数据中心运行要求。如何更加高效节能,我们对比一下上述液冷技术路线与传统技术性能PUE。2. 不同冷却技术能耗对比对比传统空气冷却、冷板式、浸没式液冷,不考虑外界环境因素变化,三种技术对比如下:

总结

分析三种技术运行工况,制冷系统制冷能耗总体不断降低。冷板式对于传统风冷冷却技术能够有效大幅度降低能耗,浸没式液冷能够更进一步节能降耗,PUE可以达到1.09。随着国内对数据中心节能指标控制越加严格,PUE有更进一步降低的趋势,浸没式液冷在高功率、大规模数据中心节能应用存在广阔的前景。随着技术不断发展,数据中心制冷系统将会更加高效节能。

数据中心(IDC机房)的能耗组成

数据中心(IDC机房)的能耗组成 目录 0、前言 (1) 1、IT设备 (1) 2、制冷设备 (2) 3、供配电系统自身的消耗 (2) 4、其他消耗电能的数据中心设施 (3) 5、实例分析(附图) (3) 0、前言 作为互联网的物理基础,除了常规的数据中心,全球还有超大型数据中心,它们往往有几万和几十万的服务器,占地面积大,位置隐蔽,耗电量更是吓人。据统计,目前全球数据中心的电力消耗总量已经占据了全球电力使用量的百分之三,有行业分析师认为,到2025年,全球数据中心使用的电力总量按现在的电力价格来估算的话,将会超过百亿美元,年均复合增长率将达到6%。接下来我们将分析一下数据中心的能耗组成。 1、IT设备 IT设备包括数据中心中的计算、存储、网络等不同类型的设备,用于承载在数据中心中运行的应用系统,并为用户提供信息处理和存储、通信等服务,

同时支撑数据中心的监控管理和运行维护。 IT设备的具体类型包括:服务器类,包括机架式、刀片式(含机框)或塔式等不同形式百否器了存储类:包括蓝盘阵列、SAN 交换机等存储设备以及磁带库、虚拟带库等备份设备;网络类,包括交换机、路由器以及防火墙、VPN、负载均衡等各类专用网络设备;IT支撑类,主要包括用千运行维护的KYM、监控管理等附属设备。 2、制冷设备 数据中心制冷设备是为保证IT设备运行所需温、湿度环境而建立的配套设施,主要包括:机房内所使用的空调设备,包括机房专用空调、行间制冷空调、湿度调节设备等;提供冷源的设备,包括风冷室外机、冷水机组、冷却塔、水泵、水处理设备等;如果使用新风系统,还包括送风、回风风扇、风阀等。 目前,空调系统已成为数据中心最大的能耗来源之一,我国数据中心空调系统能耗占数据中心总能耗40%左右,几乎与IT设备相当,因此空调系统常被认为是当前数据中心提高能源效率的重点环节。 3、供配电系统自身的消耗 数据中心供配电系统用于提供满足设备使用的电压和电流,并保证供电的安全性和可靠性。供配电系统通常由变压器、配电柜、发电机、UPS、电池、HVDC、机柜配电单元等设备组成。

8种有效降低数据中心能耗的方法

随着新一代数据中心建设浪潮的兴起,随着企业机房里服务器的密度越来越高、数量越来越大,电力消耗和散热能力正在成为企业IT管理员重点关注的问题,数据中心所消耗的电力以及要冷却这些被转化为热量的电力消耗都达到了越来越高的水平。电力的巨大消耗带来各种严峻问题,巨额的电力成本会让企业的整体成本上升,并且,相对而言在一段时期内任何一个数据中心的电力供给都是有限的,所以即便是通过增加硬件来力求平衡,最终页仍然要面对电力供给与占地面积的问题,在日益倡导绿色环保和严格审核的低碳时代,降低数据中心的能耗极为必要。 在保证数据中心基础设施的最低电力供给的同时又能显著减少电力消耗与电力成本的方法有以下这些: 1、服务器虚拟化 服务器的电力消耗占整个数据中心电力消耗的一半左右,虚拟化技术让一台物理服务器可以运行多个多个虚拟主机,这让单独服务器的计算资源可以被多个环境共享,通过调整服务器的负载,可以让计算资源得到充分利用。降低二氧化碳排放量,降低管理和运营成本。 服务器虚拟化技术降低成本是非常明显的,平均来说,以一个月为周期,和应用多台服务器的非虚拟化站点相比,应用虚拟化技术的服务器站点在数据流量、能耗、受攻击威胁和总体拥有成本只有前者的10%。 虚拟化技术让企业更加绿色,运行多台服务器会产生大量的热量,并需要额外的能耗进行冷却。通过虚拟化技术,30台服务器可以整合到3台,这可以降低15至30吨的二氧化碳排放量——相当于在公路上减少7辆汽车。 2、采用现代化冷却系统 HVAC系统通常是数据中心第二大耗电系统,据Data Center Users Group估计,消耗的电能占数据中心能源消耗的37%。空气调节系统只有在处理小范围时才能到达较高效率,面对大规模的数据中心,多数冷却系统的冷却任务都无法最优化处理,冷却效率非常低。通常,用现代化、模块化和更高效的组件替代一些传统空调设备进行冷却处理可以节约大量电能。 在气候条件便利的情况下,采用类似用外部冷空气替代电力系统来进行冷却等更节能的方式,将可以更加节约电能。 3、重组数据中心 数据中心的数量和规模的扩大在过去的几年中非常明显,而服务器则被随处安装,非常缺乏计划性。这导致了数据中心的发热与散热不均,超载的IT环境也很难保证冷却系统的最优化运行。 对数据中心服务器的物理位置进行重组,例如配置冷、热通道,都可以显著减少冷却系

数据中心制冷系统发展趋势

数据中心制冷系统发展趋势 数据中心制冷设备是为数据中心环境、数据中心主设备服务的、是依托于数据中心设备、功能而存在的,所以从根本上讲,我们看数据中心制冷系统的发展趋势,应该结合数据中心本身的发展来看,比如应用的行业、规模、主设备等等因素的变化都可能会导致数据中心制冷设备变化,甚至国内外标准的升级、国家区域政策的变化也对数据中心制冷的形态产生直接或间接的影响。 一、2000年左右数据中心行业发展初期,web1.0时代 1、数据中心特点 (1)计算机、互联网尚未普及,数据中心概念尚未建立; (2)小型计算机房、通信机房,设备少、面积小、单位发热低; (3)相关标准刚刚建立,多为借鉴国外标准,实际应用经验少; (4)对数据中心理解较少,主要解决安全性问题。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)基本功能实现,温湿度、洁净度。 3、制冷方案:以单元式风冷直膨设备为主 4、系统特点

(1)单元式分体机组,室外机占用空间; (2)单机冷量小,通常不超过100kW; (3)安装、运维简单; (4)自带加除湿功能; (5)能效受限,cop2.5左右; (6)室外机场地受限,占地较多,不适合高层写字楼。 二、2000年-2008年,数据中心行业快速成长期,进入web2.0时代 1、数据中心特点 (1)信息化建设加速,数据服务业务增加,机房数量增多、行业增多; (2)中大型机房开始出现,计算机房、通信机房开始转变为数据机房; (3)IT设备、服务器单位功耗增加、密度增加,对电、冷、空间、环境要求提升; (4)行业积累了一定经验,开始针对性定制或升级相关技术标准,规范更细致; (5)机房建设、运营更加专业化、标准化。 2、对制冷方案的主要诉求 (1)可靠、稳定、安全; (2)能适应不同机房特点、方案灵活; (3)设备功能提升,如群组功能、智能运行功能等;

数据中心能效管理多目标优化策略研究

数据中心能效管理多目标优化策略研究 在大数据的时代背景下,随着云计算技术在全世界的快速普及和发展,云数据中心的基础设施和相关配套设施的数量也在高速地增长。数据中心大量的计算密集型和数据密集型操作需要快速有效地响应,以保证数据中心的正常运转。海量服务器间的协同配合会产生大量的能源消耗,同时,数据中心对于能源的利用率还待提高,这样就对云数据中心运营成本造成巨大的浪费。因此,云数据中心的能耗问题亟待解决。 当前,云数据中心的能耗问题得到了国内外学者的广泛关注,主要的解决策略分为硬件节能和软件节能策略两个方面,在软件节能方面,其中的虚拟化技术已经被证实是解决云数据中心能耗问题的有效途径,也是本文的关注重点。本文主要聚焦于虚拟机选择和虚拟机分配过程。实时虚拟机(VM)整合是提高绿色数据中心能效管理水平的有效方法。目前,绿色数据中心的能耗评估模型是以CPU占用率为主要的影响因素。 然而,由于GPU的密集处理产生巨大的能耗,原有的能耗评估模型并不适合于数据密集型计算。在本文中,我们提出了基于CPU和GPU利用率的一种新的能效管理评估模型,并提出两种实时动态迁移虚拟机的策略:一个应用于虚拟机选择,另一个应用于虚拟机分配。一些研究人员已经分别基于VM选择策略或VM分配政策提出了自己的解决方案。然而,将虚拟机选择和虚拟机分配这两个策略集成在一起,将会得到一个更为高效的实时动态迁移的虚拟机整合策略。 基于此,一个快速的基于人工蜂群算法(ABC)的实时VM整合策略被提出,并结合适合数据密集型计算的能耗评估模型共同组成DataABC策略。DataABC采用了人工蜂群算法的思想,从而得到一个快速并且具有全局优化特点的虚拟机迁移策略。与其他经典的虚拟机整合策略相比,DataABC的总能耗下降明显。在虚拟机分配过程中,传统的分配策略存在着分配速度难以满足数据密集型作业要求的特点,以及容易陷入局部最优等现象。 因此,为了满足数据密集型作业对于响应速度的需要,本文引入梯度下降算法,加快人工蜂群算法搜寻局部最优解的速度,同时引入模拟退火算法,加强人工蜂群算法搜寻全局近似最优解的能力,使空闲节点关闭或者休眠来达到节能的目的,从而减少了能源消耗,提高了资源使用效率,减少了数据中心的运营成本。研

数据中心制冷技术的应用及发展V2 1

数据中心制冷技术的应用及发展 摘要:本文简要回顾了数据中心制冷技术的发展历程,列举并分析了数据中心发展各个时期主流的制冷技术,例如:风冷直膨式系统、水冷系统、水侧自然冷却系统及风侧自然冷却系统等。同时,分析了国内外数据中心制冷技术的应用差别及未来数据中心制冷技术的发展趋势。 关键词:数据中心;制冷;能效;机房;服务器 Abstract This paper briefly reviews the development of data center cooling technology, enumerates and analyzes the cooling technologies in data center development period. The enumerated technologies includes direct expansion air-conditioning system, water side cooling system, water side free cooling system and air side free cooling system, etc. At the same time, the paper analyzes the difference of data center cooling technology application between the domestic and overseas as well as the tendency of data center cooling technology in the future. Key words data center; cooling; efficiency; computer room; server 1前言 随着云计算为核心的第四次信息技术革命的迅猛发展,信息资源已成为与能源和材料并列的人类三大要素之一。作为信息资源集散的数据中心正在发展成为一个具有战略意义的新兴产业,成为新一代信息产业的重要组成部分和未来3-5 年全球角逐的焦点。数据中心不仅是抢占云计算时代话语权的保证,同时也是保障信息安全可控和可管的关键所在,数据中心发展政策和布局已上升到国家战略层面。 数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含配电系统、制冷系统、消防系统、监控系统等多种基础设施系统。其中,制冷系统在数据中心是耗电大户,约占整个数据中心能耗的30~45%。降低制冷系统的能耗是提高数据中心能源利用效率的最直接和最有效措施。制冷系统也随着数据中心的需求变化和能效要求而不断发展。下文简要回顾和分析了数据中心发展各个时期的制冷技术应用,并展望了未来数据中心的发展方向。 2风冷直膨式系统及主要送风方式 1994年4月,NCFC(中关村教育与科研示范网络)率先与美国NSFNET直接互联,实现了中国与Internet全功能网络连接,标志着我国最早的国际互联网络的诞生。

数据中心能耗分析

数据中心能耗实例分析 前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.8~2.0,中小规模机房的PUE值更高,大都在2.5以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。 根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作

数据中心能效研究报告

中国数据中心能效研究 报告

前言 数据中心是我国实现经济转型升级的重要基础设施,提供的巨大 数据处理能力是国家战略资源,是实现智能制造、互联网+、物联网、云计算、大数据等技术和应用的基础保障,同时因其巨大的能源消耗和对环境的影响使绿色数据中心成为中国制造2025 中绿色制造中的重点领域。数据中心在我国未来一段时期内将持续快速发展,同时需进行有效管理实现其低碳绿色可持续发展。 数据中心是提供数据计算、存储、交换等资源的服务和其他应用 服务的电子信息基础设施,具备以下特点和作用: 1)是支撑经济转型的重要电子信息基础设施和服务平台 数据中心是提供大规模数据交换、计算、存储等功能的核心基础设施,是满足大规模数字化、网络化、虚拟化和智能化需求的核心节点,是政务、金融、商务、制造、科研和民生服务等活动开展的重要保障。因此数据中心是我国开展经济转型的关键配套和支撑基础设施和服务平台。 2)是支持科技发展和创新的重要载体 数据中心是提供计算等能力的资源池。智能制造、物联网、云计算、大数据等新兴技术和应用以及科学研究等方面的发展和创新都需要以海量数据处理为基础,需要大量调用计算资源开展。数据中心的

核心任务之一就是承载该方面的需求。 3)是信息安全的关键节点 数据中心作为海量数据集中处理的物理设施和平台,由于其在信息链路中的核心作用必然成为信息安全的关键节点。数据中心的安全除信息安全技术领域外还包括计算机机房的物理环境安全。IT 系统无法规避由于运行环境不能满足要求而导致的功能丧失。 4)是节能重点对象 数据中心耗能巨大,对资源需求多样。根据美国能源局的统计数据中心的年耗电量已经占美国年发电量的 1.5%,据估算我国数据中心的年耗电量占比与美国基本相当,已经达到三峡的年发电量。依据对我国全国范围内7000 多家数据的耗电量的调研,不考虑规模前提下,数据中心单体年均耗电量超过一百万度。数据中心在大量耗电的同时也消耗大量水等其他资源。 在新常态下我国的数据中心领域的发展存在着挑战又有着机遇。从人类社会经济的总体发展历程来看经历了从农耕经济到工业制造经济到技术经济再到信息经济的基本过程。在以德日为代表的技术经济受到美国为代表的信息经济的巨大挑战后,如何加强信息化和工业化的深度融合,使信息经济红利可以反哺回制造业等实体经济,这是我国乃至世界范围内共同面临的课题。我国也明确提出了中国制造

数据中心能耗分析

数据中心能耗分析 Document serial number【UU89WT-UU98YT-UU8CB-UUUT-UUT108】

数据中心能耗实例分析前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。 一、数据中心节能的必要性 近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。 随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为。据最新报道Google公司现在已经有部分数据中心的PUE降低到。而我们国内的PUE平均值基本在~,中小规模机房的PUE值更高,大都在以上。我们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。

根据对国内数据中心的调查统计,对于未采用显着节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。 从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。 二、影响数据中心能耗的因素 数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根据IT设备的实际负荷选择合理的UPS 容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。 1、UPS对数据中心能耗的影响 UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%时UPS的效率才接近90%。很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%。在此情况下UPS的效率仅仅为80%左右,UPS的损耗非常大。因此,在UPS配置中尽量选择多机并联模式,避免大容量UPS单机运行模式。例如,可以用两台300kVA UPS并联运行的模式代替一台600kVA UPS单机运行模式。其优点在于IT负荷较少时只将一台300kVA UPS投入运行,另一台UPS不工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UPS效率,降低机房能耗。 2、供配电系统对数据中心能耗的影响

(完整版)数据机房专用空调能耗评估与分析

数据中心能耗指标 1. PUE PUE ( Power Usage Effectiveness,电能利用效率)是国内外数据中心普遍接受和采用的一 种衡量数据中心基础设施能效的综合指标,其计算公式为: PUE = P Total / P IT 其中,P Total 为数据中心总耗电,P IT 为数据中心中IT 设备耗电。 PUE 的实际含义,指的是计算在提供给数据中心的总电能中,有多少电能是真正应用到 IT 设备上。数据中心机房的PUE 值越大,则表示制冷和供电等数据中心配套基础设施所消耗的电能越大。2. pPUE pPUE(Partial Power Usage Effectiveness,局部PUE)是数据中心PUE概念的延伸,用于对数据中心的局部区域或设备的能效进行评估和分析。在采用pPUE 指标进行数据中心能效评测时,首先根据需要从数据中心中划分出不同的分区。其计算公式为: pPUE1= (N1+I1) / I1 其中, N1+I1 为1 区的总能耗, I1 为1 区的IT 设备能耗。 局部PUE 用于反映数据中心的部分设备或区域的能效情况,其数值可能大于或小于整体 PUE,要提高整个数据中心的能源效率,一般要首先提升pPUE值较大的部分区域的能效。 3. CLF/PLF CLF( Cooling Load Factor)称为制冷负载系数,PLF( Power Load Factor)称为供电负载系数)。CLF 定义为数据中心中制冷设备耗电与IT 设备耗电的比值;PLF 定义为数据中心中供配电系统耗电与IT 设备耗电的比值。 CLF 和PLF 是PUE 的补充和深化,通过分别计算这两个指标,可以进一步深入分析制冷系统和供配电系统的能源效率。 4. RER RER( Renewable Energy Ratio,可再生能源利用率)是用于衡量数据中心利用可再生能源的情况,以促进太阳能、风能、水能等可再生,无碳排放或极少碳排放的能源利用的指标。 一般情况下, RER 是指在自然界中可以循环再生的能源, 主要包括太阳能、风能、水能、生物质能、地热能和海洋能等。 专用空调系统能耗评估与分析 冷源的效率 能耗分析:

数据中心空调制冷量的计算

办公场所空调制冷量怎么计算 办公室空调与面积要怎么匹配,会议室空调又怎么匹配,要怎么计算? 一冷量单位 〉千瓦(kw)—国际单位制,把制冷量统一到功率相同单位,是现在制冷界努力的方向 〉大卡(kcal/h)一习惯使用单位,与kw的换算关系为 1kcal/h=1.163w 1w=0.86kcal/h 1万大卡=11.6千瓦 〉冷吨(RT)----1吨0摄氏度的冰在24小时内变成0摄氏度水所吸收的热量。 1冷吨=3.517kw 〉匹(HP)---又称马力、匹马力,即表示输入功率,也常表示制冷量。表示功率时 1HP=0.735KW 〉表示制冷量时,实际含义为消耗1HP功率所产生的制冷量 1HP - - -2.2KW 二制冷量简便计算方法 精密空调的负荷一般要根据工艺房间的实际余热余温以及状态的变化进行准确计算,但在条件不允许时也可计算,下面介绍两种简便的计算方法: 方法一:功率及面积法 Qt=Q1+Q2 Qt总制冷量(kw) Q1室内设备负荷(=设备功率X0.8) Q2环境热负荷(=0.18KW/m2X机房面积)

方法二:面积法(当只知道面积时) Qt=S x p Qt总制冷量(kw) S 机房面积(m2) P 冷量估算指标 三精密空调场所的冷负荷估算指标 电信交换机、移动基站(350-450W/m2) 金融机房(500-600W/m2) 数据中心(600-800W/m2) 计算机房、计费中心、控制中心、培训中心(350-450W/m2) 电子产品及仪表车间、精密加工车间(300-350W/m2) 保准检测室、校准中心(250-300W/m2) Ups 和电池室、动力机房(300-500W/m2) 医院和检测室、生活培养室、洁净室、实验室(200-250W/m2) 仓储室(博物馆、图书馆、档案馆、烟草、食品)(150-200W/m2) 四根据不同的情况确认制冷量 情况一(没有对机房设备等情况考察之下) 数据室估算:在一个小型的金融机房中,数据设备室通常的面积小于50平方,在数据设备、机房的建筑热量没有确定下来之前,可以按照金融机房通用的估计方法进行机房空调制冷量的预估:500w~600w/m2 ,部分高容量机房达到800w/m2。例如数据室的面积为50 m2 ,则所需的制冷量约为:25kw。选用3

数据中心能效提升办法及建议

数据中心能效提升办法及建议 摘要 在数据中心的总拥有成本 (TCO) 中,电力使用成本所占比重越来越大。通过合理地设计网络 关键物理基础设施以及精心设计 IT 架构,可以大幅降低典型数据中心的电能消耗。本问阐述如何 量化电力节约,并举例说明大幅降低电能消耗的方法。 电能的使用不是数据中心的典型设计标准,也没有作为一项开支得到有效管理。在数据中心 的生命周期内,尽管电能成本可能会超过包括 UPS 在内的电源系统的成本,也可能会超过 IT 设备 的成本,但上述情况却是不争的事实。出现这种情况的原因如下: ?要缴纳的电费数额是在费用发生后才知道的,与任何特定决策或操作规程没有明确的联系。因此,这些费用被视为是无法避免的。 ?用于为数据中心的电力成本建模的工具不普及,在数据中心的设计过程中并未广泛使用。 ?需要缴纳的电费通常不包括在数据中心运营组的责任或预算范围内。 ?数据中心的电费帐单可能包含在更大的电费帐单之内,而可能无法单独提供。 ?决策者在进行规划和采购决策的过程中,未获得有关电力成本影响的充足信息。本文将证 明上述所有问题均可以并应该得到解决,因为这样可以为一般用户节约大量资金。 在设计新设施时可以实现最大程度的节约,但现有的和改造的设施也可以实现某种程度的节约。在设计新数据中心的过程中,只需进行简单且不需成本的决策,便可以节约 20-50% 的电费;如果系统化进行设计,则可以减少多达 90% 的电费。 能源消耗在什么地方? 数据中心使用的能源只有大约一半甚至不足一半消耗在 IT 负载上。另一半消耗在包括电源设备、冷却设备和照明设施在内的数据中心物理基础设施 (DCPI) 设备上。图 1 显示了典型高可用性 数据中心中电能的流向。需要注意的是,数据中心消耗的所有能源最终都会以废热的形式排放到 室外大气中。图 1 是根据采用 2N 电源设备和 N+1 冷却设备、在大约 30% 的额定容量下工作的典 型数据中心。

电信互联网数据中心IDC的能耗测评方法

电信互联网数据中心(IDC)的能耗测评方法.

电信互联网数据中心(IDC)的能耗测评方法 核心提示:本标准分析了互联网数据中心(以下简称数据中心)的能耗结构,定义数据中心的能效指标,提出数据中心能耗测量方法和能效数据发布要求。本标准主要规定了数据中心的直接消耗的电能,

不包括油、水等其它能源或资源的消耗。本标准适用于数据中心能耗的测量及能效的计算,用于了解数据中心能源效率状况,比较不同数据中心之间的能源效率及作为数据中心节能水平评级的依据。 前言 本标准是数据中心的系列标准文件之一,该系列标准文件的预计结构及名称如下: 1) YD/T 2542-2013 电信互联网数据中心(IDC)总体技术要求2) YD/T 2441-2013 互联网数据中心技术及分级分类标准 3) YD/T 2442-2013 互联网数据中心资源占用、能效及排放技术要求和评测方法 4) YD/T 2543-2013 电信互联网数据中心(IDC)的能耗测评方法5)电信互联网数据中心(IDC)的运维管理技术要求 6)电信互联网数据中心(IDC)网络设备测试方法 7)电信互联网数据中心(IDC)网络设备技术要求 8)集装箱式电信互联网数据中心(IDC)总体技术要求 基于云计算的互联网数据中心网络互联技术要求)9. 10)基于云计算的互联网数据中心安全指南 11)电信互联网数据中心(IDC)虚拟资源管理技术架构请注意

本文件的某些内容可能涉及专利。本文件的发布机构不承担识别这些专利的责任。 本标准由中国通信标准化协会提出并归口。 本标准起草单位:中国移动通信集团公司、工业和信息化部电信研究院、中国联合网络通信集团有限公司、中国电信集团公司、中兴通讯

数据中心机房制冷空调系统运维技术考核题目答案参考

数据中心(机房)制冷空调系统运维技术考核题目答案参考 类数据机房温湿度范围?单点温湿度波动范围? A类机房温湿度要求:23±1℃,40--55% ;单点温度波动小于5℃/h,湿度波动小于5%/h 参考:GB50174《电子信息系统机房设计规范》 2.空调回风参数:温度25℃,相对湿度50%;求露点温度? ℃参考:标准大气压湿空气焓湿图;此题关注会查空气状态点对应的露点温度和湿球温度 3.自然冷却模式、预冷模式、普通制冷模式的切换依据,对应的环境湿球温度值是多少? 湿球温度<10℃适合自然冷却模式,10--15℃之间适合预冷模式,>15℃适合普通制冷模式 参考:水冷自控系统供冷模式转换控制逻辑 4.机房空调送风距离多少米为宜?6-10m为宜 5.数据机房采用地板送风,风速范围多少m/s为宜? ( m/s最佳)参考:GB50174《电子信息系统机房设计规范》 6.数据机房新风正压要求数值? 机房与走廊;机房与室外参考:GB50174《电子信息系统机房设计规范》 7.数据机房新风量:人均参考值?每平米参考值?按机房换气次数每小时几次为宜? 按工作人员每人40m3/h;每平米25--30 m3/h;机房换气次数次/h(人员进出的机房取4次/h) 8.计算:900个标准机柜(13A)需要多大面积的机房合适?如选用艾默生冷水型机房空调P3150G至少需要多少台?按4-5台以上备份1台的标准,最多需要多少台?需要多大冷量的冷水机组提供冷源?需要多大风量的新风空调提供机房正压? 每个机柜加上冷热通道,平均面积取;×900=2070㎡(可分成4个㎡模块间,每个模块225台机柜) 每平米可用制冷量不能小于+每平米维护结构热负荷=每平米冷量需求 总冷量需求:×2070=3312KW 查艾默生冷水型空调样本:P3150G标准冷量为;需留有20%的预留(使用系数取) 艾默生P3150G冷水型空调单机净冷量:×= ○标准需求台数:3312÷≈28台;冗余配置(4+1):28÷4=7台(需配备机7台);含备机需28+7=35台 ○IT设备功耗转换成热量系数(取计算);13A机柜功耗,转换为热量÷≈ 总热负荷:×900=3429KW,除以P3150G空调单机净冷量≈29台,按冗余配置(4+1),需配备机7台;含备机需29+7=36台 ○空调系统制冷量取IT负载的倍;IT总负载:×900=2574KW;空调系统总制冷量:2574×= 除以P3150G空调单机净冷量≈28台,按冗余配置(4+1),需配备机7台;含备机需28+7=35台 ●需要冷量为3429KW(约1000RT)的冷水机组(离心式)1台提供冷源 新风量每平米25--30 m3/h(取30 m3/h);总新风需求30×2070=62100 m3/h,建议规划4个模块间单独提供新风62100÷4=15525 m3/h,需要新风量15525 m3/h的组合空调4台 9.制冷设备能效比EER是如何计算的? EER即制冷设备的制冷性能系数,也称能效比,表示制冷设备的单位功率制冷量。EER值越高,表示制冷设备中蒸发吸收的热量较多,压缩机耗电较少。数学计算公式:EER=制冷量(KW)/制冷消耗功率(KW) 单位:W/W或KW/h/W 10.冷站(动力站)COP是如何计算的? 冷水机组实际制冷量和配套设备(压缩机-马达+冷冻水循环泵+冷却水循环泵+冷却塔风机-马达)实际输入功率之比 11.数据机房PUE是如何计算的?绿色节能机房PUE标准? PUE是评价数据中心能源效率的指标,是数据中心消耗的所有能源(电能)与IT负载使用的能源(电能)之比PUE=数据中心总设备能耗/IT设备能耗;基准是2,越接近1表明能效水平越好 绿色节能机房PUE标准:以下 12.接题目8,匹配适合该冷水机组的冷却塔参数(流量)?冷却塔设在楼顶距冷站(动力站)20米,匹配适合该冷水机组的冷却循环泵参数(扬程和流量)?匹配适合该冷水机组和机房空调的冷冻循环泵参数(扬程和流量)(注:水泵出口至管网最高点垂直高度15米)? 水量需求:冷凝器()/RT 蒸发器(3/h)/RT

数据中心能效指标及IT设备的能耗计算

数据中心能效指标及IT设备的能耗计算 作者:许剑更新时间:2010/4/813:29:20 摘要:在数据中心的建设和改造过程中,科学、长远的规划是构建绿色数据中心的关键,数据中心的能效是个能考量的指标,是否合格一目了然,IT设备的能耗盘点便是这指标考量中的关键,想要真正的做到绿色数据中心,我们就要先来看看你的数据中心是不是真的“达标”了。 数据中心的能耗问题已经引起了广泛的关注,众多的厂商推出了针对性的产品和解决方案,很多数据中心的管理人员也在寻求正确的方法来降低数据中心的能耗。 几年前GreenGrid(绿色网格)组织提出用PUE(能源利用效率)和DCE(数据中心能效)或DCIE(数据中心基础设施能效)的标准来衡量数据中心的能耗效率。但是,业内外对PUE和DCE作为能耗标准的有效性都普遍表示担心,这也使业内外对于更好衡量标准的需求变得更加迫切。 PUE及DCiE的概念: 能量使用效率PUE:PowerUsageEffectiveness 数据中心基础设施效率DCiE:DataCenterInfrastructureEfficiency PUE和DCiE二者成倒数关系 数据中心分成IT设备和Infrastructure(基础设施)两个部分,两个部分能效的乘积才是整个数据中心的能效,详见上图。 IT设备部分的能效评价指标还在定义之中,而Infrastructure(基础设施)部分的能效定义即PUEandDCiE。

数据中心IT设备与基础设施Infrastructure能效关系 数据中心基础设施Infrastructure能效指标 数据中心典型的PUE和DCiE曲线: PUE指标曲线

数据中心应用能耗监测系统

数据中心能耗监测系统 1、概述 随着通信事业的迅猛发展和通信技术的不断进步,以三大运营商为主体的通信企业和其他交通、银行、证券、保险、大型工矿、连锁企业的机房动力环境综合监控系统已经成为企业通信运维管理的重要组成部分,有关数据中心的能源管理和供配电设计已经成为热门问题,高效可靠的数据中心配电系统方案,是提高数据中心电能使用效率,降低设备能耗的有效方式。 2、参考标准 GB50174-2008电子信息系统机房设计规范 GB50462-2008电子信息系统机房施工及验收规范 数据中心能耗检测标准及实施细则 YDB037-2009通信用240V直流供电系统技术要求 YD/T585-2010通信用配电设备 YD/T638.3-1998通信电源设备型号命名方法 YD/T939-2005传输设备用电源分配列柜 YD/T944-2007通信电源设备的防雷技术要求和测试方法 YD/T1051-2000通信局(站)电源系统总技术要求 YD/T1095-2008通信用不间断电源(UPS) DL/T856-2004电力用直流电源监控装置 3、系统组成 数据中心主要包括变配电、供配电系统、UPS系统、空调制冷系统、消防、安防、环境动力监控、机房照明等。

数据中心智能监管方案可实现对数据中心机房内外的动力系统运行环境实时监控、设备维护与控制、电能质量管理、能源成本整体管理,提高监控的实时性和可靠性、提高能源的使用效率、优化能源成本、增强动力系统的可靠性和有效性。 数据中心的监控可以分为配电监测和机房环境综合监控。 1)配电监测系统 结合数据中心机房内外,实现从供电侧到用电侧的全面监测,分别满足数据中心交流和直流应用的监测要求。配电示意图如下:

常见数据中心冷却系统

常见数据中心冷却系统 由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、温差小和风量大。下面,我们简要介绍下适合数据中心部署的空调冷却系统。 1、风冷精密空调 这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。下面是风冷精密空调的工作原理图。 风冷精密空调工作原理图 风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足: ●安装困难 ●在夏天室外温度很高时,制冷能力严重下降甚至保护停机

●对于传统多层电信机房,容易形成严重的热岛效应 ●需要开启加湿除湿功能,消耗大量能源 2、离心式水冷空调系统 这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。 离心式水冷空调系统

水冷冷冻机组的工作原理 离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。大型数据中心的水冷空调系统一般由以下五部分组成,示意图如下。 水冷空调系统示意图 免费冷却技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。

数据中心总体能效分析

数据中心总体能效分析 一、数据中心上架率分析 截至2017年底,我国超大型数据中心上架率34.4%,大型数据中心上架率54.87%,与2016年比均提高5%左右,除北上广深等一线城市,河南、浙江、江西、四川、天津等地区上架率提升到60%以上,西部地区多个省份上架率由15%提升到30%以上。全国数据中心总体平均上架率为52.84%,总体供需平衡,但与发达地区数据中心成熟市场仍有一定差距,数据中心利用率仍可进一步提高。

二、数据中心单机柜功率现状分析 目前主流的机柜功率是以4-6KW为主,占比为43%,但是高功率的机柜数量占比也不小,6KW及以上的机柜占比为32%,10-12kW的机柜已经较少,而12kW以上的机柜并不常见。

三、在建数据中心单机柜功率现状分析 当前主流功率密度为4-6kW/rack,而低密度的2-4kW/rack大幅度萎缩,仅有12.8%;随着互联网用户的增多,6-8KW/rack的用户需求占比超过低密度需求,达到17%,甚至有超过4%以上的客户选择超过8kW/rack的功率密度。 预计在未来1-2年内,尽管仍有大量的4-6kW机柜,但是数据中心单机柜功率的主要值会由4-6kW向6-8kW提升,8-10kW的机柜比例较现在有明显上升,甚至可能出现相当数目的12kW以上的机柜。

虽然随着数据中心节能相关技术的发展,未来数据中心单机柜功率未必能与预期完全一致,但是预计数据中心单机柜功率值的总体发展方向为上升,且单机柜功率达到6-8kW 的数据中心很有可能成为未来的主流数据中心。 三、数据中心总体能效分析 中国数据中心总耗电量2017年约1200亿kWh,2018年约1600亿kWh,预计2020年将达到2000亿kWh。 数据中心设计PUE在1.2-1.6之间是主流值,PUE>2.0以上的数据中心极少,也将随着时间推移,逐渐淘汰。总体来看当前数据中心对能源的利用较为高效。

电信互联网数据中心(IDC)的能耗测评方法

电信互联网数据中心(IDC)的能耗测评方法核心提示:本标准分析了互联网数据中心(以下简称数据中心)的能耗结构,定义数据中心的能效指标,提出数据中心能耗测量方法和能效数据发布要求。本标准主要规定了数据中心的直接消耗的电能,不包括油、水等其它能源或资源的消耗。本标准适用于数据中心能 耗的测量及能效的计算,用于了解数据中心能源效率状况,比较不同数据中心之间的能源效率及作为数据中心节能水平评级的依据。 前言 本标准是数据中心的系列标准文件之一,该系列标准文件的预计结构及名称如下: 1) YD/T 2542-2013 电信互联网数据中心(IDC)总体技术要求2) YD/T 2441-2013 互联网数据中心技术及分级分类标准 3) YD/T 2442-2013 互联网数据中心资源占用、能效及排放技 术要求和评测方法 4) YD/T 2543-2013 电信互联网数据中心(IDC)的能耗测评方法 5)电信互联网数据中心(IDC)的运维管理技术要求 6)电信互联网数据中心(IDC)网络设备测试方法 7)电信互联网数据中心(IDC)网络设备技术要求 8)集装箱式电信互联网数据中心(IDC)总体技术要求 9)基于云计算的互联网数据中心网络互联技术要求

10)基于云计算的互联网数据中心安全指南 11)电信互联网数据中心(IDC)虚拟资源管理技术架构请注意本文件的某些内容可能涉及专利。本文件的发布机构不承担识别这些专利的责任。 本标准由中国通信标准化协会提出并归口。 本标准起草单位:中国移动通信集团公司、工业和信息化部电信研究院、中国联合网络通信集团有限公司、中国电信集团公司、中兴通讯股份有限公司、华为技术有限公司、百度在线网络技术(北京)有限公司、深圳市腾讯计算机系统有限公司、中金数据系统有限公司、阿里巴巴(中国)有限公司、上海宽带技术及应用工程研究中心。 本标准主要起草人:唐华斌、李洁、房秉毅、蔡永顺、李明栋、高新菊、陈尚义、谭杰夫、连雄伟、刘水旺、张敬、方行、李典林、高巍、郭亮、于涛。 电信互联网数据中心(IDC)的能耗测评方法 1 范围 本标准分析了互联网数据中心(以下简称数据中心)的能耗结构,定义数据中心的能效指标,提出数据中心能耗测量方法和能效数据发布要求。本标准主要规定了数据中心的直接消耗的电能,不包括油、水等其它能源或资源的消耗。 本标准适用于数据中心能耗的测量及能效的计算,用于了解数据中心能源效率状况,比较不同数据中心之间的能源效率及作为数据中心节能水平评级的依据。

大型数据中心制冷系统的三个关键

大型数据中心制冷系统的三个关键 目前,随着大型数据中心高密度服务器与低密度混合模式的出现,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。 据统计,目前85%以上的机房存在过度制冷问题,而供电中只有1/3用在IT 设备上,制冷费用则占到总供电的2/3 。因此,降低能耗、提高制冷效率是大型数据中心建设的关键所在。北京世纪互联工程技术服务有限公司(以下简称BANYANO)于2008年12月,就大型数据中心制冷系统建设的几个关键性问题,发布了技术白皮书。 制冷模式的转变:集中制冷到按需制冷 在以往的空调系统设计中,多采取集中制冷模式,将空调房间考虑成一个均匀空间,按现场最大需求量来考虑。这种模式忽视了空间各部分的需要,缺少考虑制冷效率、制冷成本的意识。目前随着科学技术的发展以及高密度大型数据中心的建设需求,人们逐渐认识到按需制冷的必要和集中制冷的弊端。 据BANYANO技术人员介绍,“按需制冷”就是按机房内各部分热源的即时需要,将冷媒送到最贴近热源的地方。它最大的特点是制冷方式的定量化和精准化,从“房间级”制冷转变为“机柜级”制冷,最后到“芯片级”制冷。例如,在高密度大型数据中心的建设规划中,BANYANO采用了以“精密制冷”为核心的机柜级解决方案。将英飞集成系统的In-row制冷单元放在高密度服务器机柜旁边,针对每个热点进行降温,让冷热空气直接在机柜和空调之间以最短的路径循环,从而有效提高制冷效率。根据设备发热量的高低配置相应数量的制冷单元,以此做到按需供冷定量分配。与房间级制冷相比,In-row制冷对冷气的利用率达到70%,并能够处理更高的热负载密度。 送风方式的设计:上送风VS下送风 数据中心内显热庞大,潜热微小的环境导致需要大风量的空调系统。为保证数据中心内不同位置的IT设备都能处于适宜的温度和湿度,正确设计数据中心的送风和回风的气流组织成为大型数据中心制冷系统建设的重要环节。 建设大型数据中心制冷系统的三个关键</p

相关主题
文本预览
相关文档 最新文档