数据中心被动式散热解决方案(前沿技术)
- 格式:doc
- 大小:3.34 MB
- 文档页数:11
双相数据中心:融合高效处理与节能环保的未来发展趋势随着信息技术的迅猛发展,数据量呈指数级增长,传统数据中心的高能耗、高排放和低利用率等问题愈发凸显。
为了解决这些问题,人们开始关注新型数据中心技术,其中双相数据中心备受瞩目。
本文将从双相数据中心的概念、特点和发展趋势入手,探讨其未来发展的潜力和前景。
1. 双相数据中心的概念和定义双相数据中心是指在数据中心中同时采用电力和液体冷却剂进行散热,以提高能源利用率和降低数据中心的能耗。
相对于传统的空调制冷系统,双相数据中心具有更高的散热效率和更低的能耗。
2. 双相数据中心的特点2.1 高效处理能力双相数据中心采用先进的冷却技术,能够保持设备在更低的温度下运行,从而提高了处理能力和效率。
2.2 节能环保双相数据中心通过利用液体冷却剂,降低了设备散热能耗,减少了对空调的依赖,达到了节能环保的目的。
2.3 可靠性和稳定性双相数据中心提高了设备的运行稳定性,降低了设备的故障率,提高了数据中心的可靠性。
3. 浸没式冷却液在双相数据中心中的应用浸没式冷却液是双相数据中心中的一项重要技术,它能够更好地降低设备的运行温度,提高散热效率,进而提高数据中心的处理能力和节能环保水平。
4. 双相数据中心的发展趋势4.1 技术不断创新双相数据中心的应用领域不断扩大,冷却技术不断创新,使得双相数据中心在能源利用率和环保性能上有了更大的突破。
4.2 标准化建设未来双相数据中心在建设过程中将逐渐实现标准化,促进了数据中心的规模化建设和多样化应用。
4.3 智能化管理随着物联网和人工智能技术的不断发展,双相数据中心的管理将更加智能化、自动化,提高了数据中心的运维效率和安全性。
总结回顾:双相数据中心是未来数据中心发展的主要趋势之一,其应用能够有效提高数据中心的能源利用率、处理能力和环保性能。
浸没式冷却液作为双相数据中心的核心技术之一,对于提高数据中心的散热效率、节能环保水平和稳定性具有重要意义。
数据中心液冷系统施工方案1. 引言数据中心作为存放和处理大量数据的关键设施,对散热和温度控制要求非常高。
而传统的空气冷却系统已逐渐不能满足数据中心的散热需求。
因此,液冷技术应运而生,成为数据中心散热的新选择。
本文将介绍一种数据中心液冷系统施工方案,以解决散热问题。
2. 液冷系统原理液冷系统通过引入液体冷却剂来吸热,并将热量带走,从而降低数据中心温度。
其基本原理是将液体冷却剂通过散热设备,如冷凝器、冷却塔等,将多余的热量带走,然后再循环使用。
液冷系统相比传统的空气冷却系统具有更高的散热效率和更好的温度控制能力。
3. 液冷系统施工步骤3.1 设计液冷系统方案在开始施工之前,需要先进行液冷系统的设计。
设计涵盖以下几个方面:•数据中心的热负荷分析,确定所需散热量;•液冷设备的选择,包括冷凝器、冷却塔、泵等;•冷却管道的布局和连接方式;•控制系统和监测设备的选择。
3.2 清洁和准备工作在开始液冷系统的施工之前,需要对数据中心进行清洁和准备工作,确保施工环境整洁、安全。
清洁和准备工作包括以下几个步骤:•清理数据中心的地面、墙壁和天花板,以保证没有灰尘和杂物;•检查数据中心的电力供应和配电设备,确保正常运行;•进行必要的安全措施,如设置警示标志、搭建临时围栏等。
3.3 安装液冷设备安装液冷设备是液冷系统施工的核心环节。
在安装过程中,需要按照设计方案进行操作,并确保各个设备的正确连接和安装位置的合理。
•安装冷凝器:根据设计方案,将冷凝器安装在合适的位置,并进行管道的连接和固定。
•安装冷却塔:根据设计方案,将冷却塔安装在合适的位置,并进行管道的连接和固定。
•安装泵:根据设计方案,将泵安装在合适的位置,并进行管道的连接和固定。
3.4 铺设冷却管道铺设冷却管道是液冷系统施工的重要一步。
在铺设冷却管道时,需要注意以下几个方面:•确定冷却管道的路径和布局,避免与其他设备和管道的冲突;•选择合适的冷却管道材料,如不锈钢、铜等;•进行管道的连接,确保连接处的密封性和稳定性。
数据中心常见冷却方式介绍数据中心机房内部温湿度环境的控制要依靠室内空调末端得以实现,机房专用精密空调具有高效率、高显热比、高可靠性和灵活性的特点,能满足数据中心机房日益增加的服务器散热、湿度恒定控制、空气过滤及其他方面的要求。
数据中心传统冷却方式主要有:风冷型直接蒸发式空调机组、水冷型直接蒸发式空调机组、冷冻水型空调系统、双冷源空调系统。
传统数据中心冷却方式存在传热效率低、局部热点难以消除以及制冷系统能耗大等问题。
针对常规机房能耗较高及使用局限性的问题,数据中心行业新型的冷却方式被越来越开发及使用。
新型的冷却方式有:风侧自然冷却技术、水侧自然冷却技术和热管自然冷却技术等。
下面分别介绍这几种数据中心传统与新型的冷却方式。
1. 风冷型直接蒸发式空调系统风冷型直接蒸发式空调系统如图一所示,机组主要有框架、压缩机、蒸发器、冷凝器、电子调节阀、室内风机、室外风机、机组控制系统、温湿度传感器等组成室外侧翅片换热器作为冷凝器,室内侧翅片换热器作为蒸发器,压缩机排出的制冷剂高温气体在室外侧翅片换热器冷凝成液体后,经膨胀阀节流降压成为低温气液混合体,再流入室内侧翅片换热器,吸收热量蒸发后回到压缩机,完成一个制冷循环; 同时,从室内来的回风经过室内侧蒸发器后则被冷却降温,处理后的冷风由室内侧风机再送入室内。
2. 水冷型直接蒸发式空调系统水冷型直接蒸发式空调系统,室内机配置水冷冷凝器,由室外冷却塔提供冷却水。
机组冷凝器、蒸发器均在室内机组内,制冷循环系统管路短。
风冷型与水冷型直接蒸发式空调系统的主要区别在于冷凝器的冷却方式。
所有机组的冷却水可以做到一个系统当中,由水泵为冷却水循环提供动力。
3. 冷冻水型空调系统冷冻水型精密空调系统一般由冷水机组、冷却塔、冷冻水泵、冷却水泵、冷冻水型精密空调、管路及附件组成。
冷冻水型空调机组,采用冷水机组或板式换热器提供冷冻水,对机房进行温湿度控制。
冷冻水型精密空调具有高能效、结构紧凑、可远距离输送冷量的特点。
数据中心设备散热水冷机风冷和液冷冷却方式介绍随着数据中心的进展建设中,其能耗要求在不绝降低,数据中心设备散热水冷机的液冷冷却方式是使用液体作为冷媒为发热部件散热的一种技术,接下来为您介绍风冷和液冷的冷却方式。
一、数据中心风冷冷却方式介绍以前数据中心设备散热水冷机以风冷为主,风冷是将空气作为冷媒,把服务器主板、CPU等散发出的热量传递给散热器模块,再利用风扇或空调制冷等方式将热量吹走,这也是散热系统消耗数据中心近半电力的重要原因。
风冷包含直接空气自然冷技术和间接空气自然冷技术。
直接空气自然冷可以依据室外温度结合机械制冷给数据中心内部设备散热,这种技术能效高,但空气质量的不确定性会带来较大风险,特别是室外空气湿度过高或者有害气体过多会对IT设备造成损坏。
为了躲避这种情况发生,近些年的数据中心开始采纳间接空气自然冷技术,将室外冷空气通过空气热换器对室内热空气进行冷却,躲避室外空气进入数据中心内部,受环境影响较直接冷较小。
这两种风冷技术效率都比较高,但对环境和安装要求较高,会对IT设备造成损耗降低牢靠性。
随着数据中心规模加添及单机柜功率密度加添,对制冷也提出了更高要求,面对下一代IT系统的液冷技术应运而生。
二、数据中心液冷冷却方式介绍液冷作为当前数据中心设备散热水冷机的散热方式,通过外部冷却水或冷冻水系统实现系统换热,实在是使用高比热容的液体作为传热工作介质来充足IT设备(如服务器)的冷却需求。
目前,基于液冷技术的主流方案包含冷板式液冷和浸没式液冷两种。
冷板式液冷也称间接式液冷,也就是冷媒和被冷却对象分别,不会直接接触。
通过液冷等热传导部件,将被冷却对象的热量传递到冷媒中。
一般冷板式液冷只用于冷却CPU、内存等关键器件,只占总发热量的一半左右,因此还需要搭配风冷散热,可以削减IT设备自带风扇的数量和电耗,实现很大程度的。
浸没式液冷也叫直接式液冷,是将IT设备包含服务器主板、CPU、内存等发热量大的元器件全部浸入冷却液中,用冷却液体替代空气给IT设备降温,让被冷却对象与冷媒直接接触,因发热元器件冷却均匀度更好,可以选择肯定温度下相变的液体。
DLP拼墙系统液冷技术方案X 公司液冷方案简介3BARCO BARCO液冷方案简介液冷方案简介IDC IDC主流液冷方案简介主流液冷方案简介214X 公司液冷技术与公司液冷技术与IDC IDC液冷技术对比液冷技术对比散热形式散热、节能效果风道形式地板送风,无冷热通道最低地板送风,密闭冷通道较低地板送风,密闭冷热通道低传统传统IDC IDC数据中心散热解决方案数据中心散热解决方案完全利用环境冷风免费自然冷源进行制冷无需空调等高耗电机械制冷设备 上风帽送风,冷风/热风通道完全隔离,提高热交换效率 PUE=1.073机房级散热解决方案Facebook Facebook直通风自然冷却技术直通风自然冷却技术完全利用海水免费自然冷源进行制冷无需空调等高耗电机械制冷设备地板送风,冷风/热风通道完全隔离,提高热交换效率PUE=1.13机房级散热解决方案GoogleGoogle海水自然冷却技术海水自然冷却技术直接利用楼宇中的冷却水塔免费冷源或增加冷水机组进行循环冷媒冷却无需空调等高耗电机械制冷设备 被动式相变制冷,制冷效率高 PUE=1.4热管背板工作示意图热管背板示意图机柜级散热解决方案Huawei Huawei热管背板冷却技术热管背板冷却技术X 公司液冷方案简介3BARCO BARCO液冷方案简介液冷方案简介IDC IDC主流液冷方案简介主流液冷方案简介214X 公司液冷技术与公司液冷技术与IDC IDC液冷技术对比液冷技术对比智能监控制冷智能启动 风扇智能调速 液面智能告警高可靠性5年免加液,无腐蚀、不变质冷却系数:0.305w/m.k显示单元MTBF≥180,000小时防漏液•高压检测•漏液防护•漏液告警散热性能对比风冷温度更低3~5℃水泵散热水排风扇水箱 风扇制冷系统选配导管水冷头X 公司液冷方案简介X 公司液冷方案简介3BARCO BARCO液冷方案简介液冷方案简介IDC IDC主流液冷方案简介主流液冷方案简介214X 公司液冷技术与公司液冷技术与IDC IDC液冷技术对比液冷技术对比冷却液冷却系数:0.29w/m.k 显示单元MTBF≥150,000小时水泵水箱散热水排风扇导管水冷头BARCO 液冷方案简介X 公司液冷方案简介3BARCO BARCO液冷方案简介液冷方案简介IDC IDC主流液冷方案简介主流液冷方案简介214X 公司液冷技术与公司液冷技术与IDC IDC液冷技术对比液冷技术对比X 公司液冷技术与公司液冷技术与IDC IDC液冷技术对比液冷技术对比名称方案描述环境要求可操作性维护性X 公司一级制冷:一级制冷:利用泵驱动制冷液循环制冷二级制冷:二级制冷:TEC半导体深度制冷低简单较好IDC 1、免费冷源+密闭冷热通道2、免费冷源+被动式热管相变散热高一般一般谢谢。
数据中心设计中的五种热管理技术随着互联网和大数据时代的来临,数据中心的重要性不断凸显。
为了保证数据中心的稳定性和可靠性,热管理技术成为了设计数据中心必不可少的一环。
在设计数据中心时,需要考虑多种热管理技术,以确保数据中心的高效运行。
一、冷通道和热通道技术冷通道和热通道技术是数据中心热管理中最基础和常见的技术之一。
这种技术将冷气和热气分开流通。
在冷通道中,冷气从机房的下方进入,然后从顶部排出,这种方式有效防止了热气的回流。
而热通道则是热气从机房的顶部进入到机架后再通过通道排出来。
这种方式不但能降低机房温度,还能减少机架的热负荷,保证机器的运作质量。
二、热回收技术在数据中心设计中,热回收技术是一项重要的技术。
热回收技术能够将过热的排气重新利用起来,弥补其他方面的能量消耗,比如暖气和制冰系统,从而达到节能的效果。
在应用热回收技术前,需要先了解数据中心的运行情况。
如果能够在机房内部加入节能装置,比如风扇和散热片,将大大降低能量消耗,为热回收技术的使用提供优质的条件。
三、冷水机房空调技术冷水机房空调技术是现在数据中心热管理的新兴技术。
冷水机房空调机采用制冷剂冷却的方式,在数据中心中形成一个低温环境,从而有效地降低运行设备的温度。
与传统的空气冷却方式相比,冷水机房空调技术的优势在于具备更高的冷却效果,能够在保证数据中心设备的正常运转的同时极大程度地减小能量的消耗。
四、热板设计技术热板设计技术是目前数据中心热管理技术的关键技术之一。
热板是一种直接和设备接触的密封式散热器,通过吸热和排热的方式有效地控制运行设备的温度。
在使用热板设计技术时,需要注意搭配使用耳麦热板,以避免因温度降低过快对设备造成二次损伤。
五、风冷式服务器机柜技术近年来,风冷式服务器机柜技术也成为了数据中心设计中的一大亮点。
数据中心环境中的温度和空气质量都是关键因素,这种技术借助气流的效果,形成一个良好的机柜环境,并能够保证整个数据中心内部温度的稳定性。
正文内容:一、动态热管理1. 温度监控和优化:利用温度传感器和实时数据分析系统监控数据中心内的温度情况,并根据需求动态调整空调系统的温度设定,实现能耗的优化。
2. 适应性散热:通过优化数据中心的散热设计,例如改进排风系统、增加散热通道等,将热量有效地散发出去,减少冷却需求,从而达到节能的效果。
3. 高效冷却技术:采用更为高效的冷却系统,例如直接冷却和液体冷却技术,以替代传统的空气冷却方式,减少能源损耗。
二、服务器虚拟化1. 虚拟化技术原理:通过利用虚拟化软件,将多个服务器虚拟化为一个物理服务器,实现服务器资源的合理分配和利用,从而降低能源消耗并提高服务器的利用率。
2. 服务静默化:对于不常用或低负载的服务器,可以将其自动缩减或关机,只在需要时才开启,以减少不必要的能源消耗。
3. 整合和优化:将多个应用程序整合到一个服务器上,避免多个服务器同时运行,提高资源利用效率。
三、能耗可视化1. 数据采集和监控:通过安装数据采集设备和监测系统,实时收集数据中心的能耗和性能等信息,并进行分析和展示。
2. 能耗报告和预测:利用数据分析软件,生成能耗报告和预测,帮助数据中心管理者了解能耗状况,及时调整节能策略。
3. 能效评估:对数据中心的能效进行评估,包括能源消耗、资源利用效率等指标,以便制定优化措施。
四、回收利用1. 废热回收:将数据中心产生的废热用于供暖或其他用途,避免热能的浪费,实现能量的回收利用。
2. 废物处理:对数据中心产生的废弃物进行分类和处理,例如电子垃圾回收、纸张回收等,减少对环境的负面影响。
3. 能源回收:利用可再生能源,例如太阳能和风能等,为数据中心供电,减少对传统能源的依赖,实现能源的可持续利用。
五、新兴技术1. 人工智能:通过应用人工智能技术,对数据中心的能耗进行预测和优化,实现智能节能管理。
2. 区块链:利用区块链技术,提高数据中心能耗数据的透明度和安全性,促进能源流通和交易的效率。
3. 模块化设计:采用模块化设计和构建方法,使数据中心能够根据实际需求进行扩展和缩减,减少不必要的能源浪费。
数据中心的制冷与散热在当今数字化时代,数据中心已成为支撑企业运营、互联网服务和科技创新的关键基础设施。
然而,随着数据中心的规模不断扩大,其产生的热量也日益惊人。
高效的制冷与散热系统对于确保数据中心的稳定运行、延长设备寿命以及降低能耗至关重要。
数据中心的设备,如服务器、存储设备和网络交换机等,在运行过程中会不断产生大量的热量。
如果这些热量不能及时有效地散发出去,设备的温度将迅速升高,从而导致性能下降、故障甚至损坏。
此外,高温环境还会缩短电子元件的使用寿命,增加维修和更换成本。
因此,制冷与散热是数据中心运营中必须要解决的重要问题。
目前,数据中心常见的制冷方式主要包括风冷和液冷两种。
风冷是最为常见和传统的制冷方式。
它通过空调系统将冷空气吹入数据中心,然后冷空气吸收设备产生的热量后变成热空气,再被排出数据中心。
风冷系统的优点是安装和维护相对简单,成本较低。
但是,随着数据中心的密度不断增加,风冷系统在散热效率方面逐渐显得力不从心。
因为空气的热导率较低,对于高密度的服务器机架,风冷很难实现均匀和高效的散热。
液冷则是一种更为先进和高效的制冷方式。
液冷系统主要包括直接液冷和间接液冷两种类型。
直接液冷是将冷却液直接与服务器的发热部件接触,从而迅速带走热量。
间接液冷则是通过热交换器将冷却液与发热部件隔开,冷却液吸收热量后通过外部的冷却装置进行散热。
液冷的优势在于其散热效率极高,能够有效地应对高功率密度的服务器。
此外,由于冷却液的热导率远高于空气,所以液冷系统可以实现更均匀的散热,从而提高设备的稳定性和可靠性。
在散热技术方面,热交换技术是一个重要的手段。
热交换器可以将数据中心内部的热量传递到外部环境中,而不需要直接将热空气排放到室外。
这种方式可以在一定程度上降低制冷系统的能耗。
另外,自然冷却技术也越来越受到关注。
在适宜的气候条件下,利用室外的低温空气来冷却数据中心,可以大大减少机械制冷的使用,从而降低能源消耗。
为了实现高效的制冷与散热,数据中心的布局和气流组织也非常关键。
机柜散热解决方案标题:机柜散热解决方案引言概述:机柜散热是保证服务器和网络设备正常运行的重要环节。
随着数据中心规模的不断扩大和设备功耗的增加,机柜散热问题变得越来越突出。
本文将介绍机柜散热的重要性,并提供五种有效的机柜散热解决方案。
一、优化机柜布局1.1 合理安排设备位置:将高功耗设备放置在机柜顶部,低功耗设备放置在底部,以实现热空气上升,冷空气下沉的自然对流。
1.2 确保设备间距:设备之间的间距应足够,以便空气能够流通,并避免设备之间的热量相互干扰。
1.3 利用机柜内部空间:合理利用机柜内部空间,安装散热风扇或者散热片,增加散热表面积,提高散热效果。
二、优化通风系统2.1 安装风扇:在机柜先后或者顶部安装风扇,增加空气流通量,加速热量的散发。
2.2 使用冷通道热通道:将冷通道和热通道进行隔离,确保冷空气直接供应给设备,并将热空气排出机柜。
2.3 定期清洁通风设备:定期清洁风扇和通风口,避免灰尘和杂物阻塞,影响通风效果。
三、散热设备的选择3.1 散热风扇:选择高效、低噪音、长寿命的散热风扇,确保良好的散热效果。
3.2 散热片:根据机柜内设备的功耗和散热需求,选择合适的散热片材质和尺寸,提高散热效率。
3.3 液冷系统:对于高功耗设备,可以考虑使用液冷系统,通过液体循环来散热,提供更高的散热效率。
四、温度监控与调节4.1 安装温度传感器:在机柜内部安装温度传感器,实时监测机柜内的温度变化。
4.2 温度报警系统:设置温度报警系统,当机柜内温度超过设定阈值时,及时发出警报,以便采取相应措施。
4.3 温度调节措施:根据温度监测结果,及时调节机房的空调温度和湿度,保持机柜内的温度在合适范围内。
五、加强管理与维护5.1 定期清洁机柜:定期清洁机柜内部和外部,清除灰尘和杂物,保持通风畅通。
5.2 定期检查设备:定期检查设备的工作状态和散热效果,及时更换故障设备或者散热不良的部件。
5.3 定期维护散热设备:定期维护散热设备,清洁风扇和散热片,确保其正常运转。
数据中心被动式散热解决方案通向绿色数据中心之路张愚目录前言 (3)数据中心散热基础 (3)数据中心散热管理基线-隔离冷热空气 (4)方案一:冷池和热池 (4)方案二:垂直排风管机柜 (5)通向绿色数据中心之路-垂直排风管机柜 (6)1.防止无效的冷送风浪费现象 (6)2.提高空调机热回风温度来提高空调制冷性能 (8)3.提高空调机冷送风温度 (8)总结 (9)参考文献 (11)前言随着每一代新的计算机设备的计算能力和功率能耗的大幅度提高,传统数据中心如何增加每机柜的功率密度也变得越来越重要了。
Intel的研究表明,同样的计算能力在2002年时需要25个机柜和128KW的能耗(5.1KW/每机柜),但在2008年时只需一个机柜和21KW的能耗(21KW/每机柜)。
对比之下,我们节省了107KW的能耗,并且也大大节省了数据中心的物理大小和结构。
这种大幅度的计算能力的提升主要是得益于虚拟计算,内存系统,多核CPU系统,CPU速度和GPGPU 技术的飞速发展。
虚拟计算大大提高了服务器的使用效率,从而直接增加单个机柜的发热密度。
随着内存容量和速度的飞速发展,最新的DRAM技术是的内存的发热量也大大的提升。
工程和科学研究等应用大量使用图形浮点运算,GPGPU使得显卡的发热量从25 W 提高到300 W 以上。
虽然服务器的功耗持续不断的提高,但是性能和功耗比不断的下降。
从以上的例子可以看出,如果数据中心空调系统能够高效的对机柜进行冷却,我们将会大大减少数据中心的总能耗,从而在本质上我们可以真正拥有一个绿色数据中心。
提高空调的制冷效率并节约能源只是数据中心管理的重要一部分,然而每机柜的热密度不停的增加则带给我们更多的挑战。
目前全球数据中心的每机柜的平均热密度大概为6.5KW, 但是ASHRAE2预测在2014年数据中心平均每机柜所需的制冷量为37KW。
这种5倍的热密度的飞跃需要我们对数据中心不断的革新来解决。
本文将对被动式散热解决方案进行介绍,以及在数据中心中如何利用该技术实现绿色节能数据中心。
数据中心散热基础首先,我们将对数据中心散热做一个基本的研究。
IT设备散热所需的风量可用下列等式来表明M3/H = 2.9W÷ΔT其中M3/H 为机柜中的设备散热所需的风量(立方米冷风/每小时)W=瓦特数(IT设备的功耗)△T=IT设备的温差(设备回风温度减去设备的进风温度)该等式也表明了机柜的散热能力直接和高架地板送风地板的送风能力有着密不可分的关系。
由于高架送风地板所送的冷风风量的不足够,在机柜上部的IT设备进风风扇所造成的负压会将机柜后部热通道中的热空气抽入IT设备中,从而造成服务器过热的问题。
研究也表明在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。
目前,传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。
这两种现象大大降低了空调制冷的效率。
其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。
冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。
如何解决这两种现象,其实最简单,有效的方法就是将冷热空气物理隔离开。
(图一:设备热回风回流至机柜前部,并和冷通道中的空调冷送风相混合,从而造成机柜局部过热)数据中心散热管理基线-隔离冷热空气Intel3 多年的研究和实验表明,良好的气流组织管理能够大大减少冷热空气相混合现象和空调冷送风的浪费现象。
Intel现在的数据中心的热密度也从单个机柜310WPSF增加到781WPSF (每机柜15kW 增加到40kW 以上). 另外,Dell4和HP5的数据中心也正在使用冷池或热池技术。
本文将对这种被动型(通过物理手段,无任何有源设备)对数据中心进行散热做出研究,并对可行的方案做出比较从而找出最佳的数据中心散热解决方案。
目前,主动性数据中心散热(机柜内空调制冷)也在行业内普遍使用。
但是其高昂的投资成本,复杂的安装过程和维护等等为问题,我们将不在本文中讨论。
数据中心散热解决方案方案一:冷池和热池热通道封闭或热池(HAC)是将热通道密闭起来并通过回风管将热回风传回数据中心空调系统(如图一所示)。
对比热池,冷池(CAC)是将冷通道密闭起来。
这两种技术都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率。
这两种方式的区别主要是可扩展性,散热管理和工作环境的适宜性。
冷池的可扩展性主要是受地板下送风和如何将地板下冷风送入多个冷池的制约。
目前业界对该技术有着很多的误解,很多人认为只要当空调机的出风量能满足设备的散热风量即可。
但是他们忽略了高架地板下冷送风对于多个冷池的压力降和空间的限制。
相反的热池则是使用整个数据中心作为冷通道来解决这个问题,正因为这样扩大冷通道的空间。
这样热池相比于冷池有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。
最后,随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。
现在很多服务器的热风的出风温度可到达到55o C。
冷池的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将大大增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。
综上所述,虽然这两种方法都可以大大提高每机柜的热密度,但是当合理使用热池时,热池的效率应比冷池大大的有效可靠。
图1 标准热池方案通过以上的对比,我们可以发现热池比冷池有着更多的优点。
另外在数据中心断电的情况下,在数据中心中,冷池数据中心的冷空气只存在于高架地板下和密闭冷通道中,相反于热池数据中心中冷空气存在于高架地板下和房间内的绝大多数地方。
所以冷池数据中心的冷空气体积远远小于热空气的体积。
当数据中心断电或空调出现问题是,冷池数据中心在几秒钟之内可以丧失所有的IT设备。
所有在有可能的情况下,我们应该尽量采用热池而不是冷池。
使用部分密闭热池或冷池的数据中心,数据中心的热点现象可能还会存在,消防设施的位置的也需要额外注意,但是我们可以比传统数据中心大大提高每机柜的热密度。
但是,要到达2014年每机柜37KW的热密度,这些是远远不够的。
方案二:垂直排风管机柜除此之外,另一种方案是机柜级的冷热风隔离系统。
这种系统通常是机柜的一个延伸部分。
最常见的系统为机柜垂直排风管系统,或称作烟囱机柜系统。
垂直排风管系统将密闭的机柜内的热回风导入到天花板上方。
对比冷池或热池,烟囱柜系统有着巨大的优点。
首先,对于机柜而言,烟囱机柜的隔离冷热空气系统比冷池或热池系统隔离整排机柜的热冷空气来的更为简单有效,并且烟囱柜在所有解决方案中最简单的全密闭系统。
另外,烟囱柜系统不和空调系统相连,这样我们可以随着需求的增加来任意增加机柜,这样我们有着更高的可扩展性。
最后,如表一所示,该系统和空调系统的独立性确保了数据中心可使用大型的空调系统来提高制冷效率和节能。
使用垂直排风管系统,冷空气可使用高架地板(常用送风方法)送风或直接将冷风吹入数据中心内部来送风,并且可以结合使用空气节能器来起到更佳的节能效果。
垂直排风管系统机柜的第一个挑战是我们必须使用天花吊顶或者使用回风管。
这样,数据中心则需要额外的高度。
第二个挑战则是风压差,我们必须确保机柜前后的风压以使得冷风可以进入机柜来对机柜散热。
这种挑战主要体现是机柜前部的送风风压压力,机柜后部热回风的风压,机柜后部的理线等功能区对风压的影响以及机柜顶部垂直排风管的大小和长度。
因此,我们必须在设计时特别的仔细来确保该垂直排风管系统不会造成错误的压差。
我们可以通过控制机柜内部的空气流速从而控制机柜内部的空气压力,使得即使只没有任何有源设备的情况下可也造成机柜不同区域的压力差。
从而在没有使用任何有源设备的情况下,利用这种自然地压力差将更多的冷送风吸入机柜,并将热回风排放至天花板上部。
图 2 垂直排风管系统或称为烟囱机柜图3 垂直排风管系统在数据中心内的应用通向绿色数据中心之路-垂直排风管机柜1. 防止无效的冷送风浪费现象Uptime 曾对美国的大型数据中心做个一个研究,美国平均每个数据中心冷送风风量高达实际需求的2.7倍。
但是这么多的冷量仍无法对大多数的数据中心进行冷却—很多数据中心存在着局部过热问题。
实际上这么多的冷量并没有进入机柜对IT设备进行降温,而完全白白浪费掉了。
比如,我们通常所见了高架地板上的过线孔。
在下走线的数据中心内,很多过线孔是开在热通道或机柜底部了。
这些开口在过线的同时也将空调的冷送风送入了热通道或机柜底部从而绕开了设备的进风风扇。
我们甚至不止一次的见到,由于水平走线的原因,有些数据中心在数据中心高级地板墙壁上开了很大的孔,该孔造成了大量空调冷送风向数据中心外部泄露。
这些被浪费的冷送风带来高架地板静压箱的压力降,从而使得冷送风往往不能送达关键的位置。
图五:高架地板缆线开口造成冷空气的浪费Uptime通过实际测量很多数据中心,发现大多数的数据中心这种不正确的浪费现象高度50%或更多。
如果将这些不正确的开孔密闭起来的话,我们可以大大提高数据中心空调制冷效果。
如果我们能把这50%的冷量节省下来的话,该数据中心有着巨大的节能效果。
我们用下表对同一数据中心做一个比较,在一个30个机柜的低热密度的机房内,如果我们将地板过线孔都密封起来的话,该数据中心空调运行每小时节省262度电。
开放过线孔数据中心密闭过线孔数据中心# 机柜数量3030机柜热密度4kW4kW设备温度升高11˚C 11˚C662 CFM662 CFM每个机柜所需的风量所需总风量19,86019,860总送风量39,72019,860数据中心温度升高5˚C 10˚C所需CRAC 数量 4 @ 80 tons 2 @ 40 tons所用电费525.6kWh262.8kWh图六:使用KoldLok产品密闭地板过线孔2.提高空调机热回风温度来提高空调制冷性能众所周知,空调的制冷效率和性能与空调机热回风和冷送风的温差有关,如下表所示。
空调机型号冷送风温度热回风温度制冷量Liebert FH200 10吨冷量空调机15.5˚C 21˚C 7.8 tons32˚C 15.5 tons40.5˚C 20.7 tonsLiebertFH600C30吨冷量空调机21˚C 23.0 tons 32˚C 46.0 tons 40.5˚C 61.3 tons但是绝大多数的数据中心而言,它们给空调机的回风温度不高。
这些可能是因为数据中心的布局不好或者是热回风在回流空调机时被旁路(浪费的)冷送风降温,从而大多数数据中心的空调制冷效能未大大空调机的性能值。