先进数据中心的制冷技术

  • 时间:2020-11-05 10:11
  • 作者:钻石赌场娱乐
  • 阅读:

  随着云计算时代的来临,在互联网时代已经大量释放的计算需求进一步得到释放,这导致全球呈爆炸式增长,而且服务器部署密度进一步提高。与此同时,全球能源危机却日益临近,对企业而言,信息化程度的日益提升意味着运营成本的飞速增长。因此提升密度、降低PUE,逐渐成为下一代

  在下一代数据中心的技术研究和实践上,以Google、Facebook、Yahoo为代表的互联网公司走在了前列。

  以Google为例,其核心业务搜索引擎的性能极度依赖数据中心的规模和效率。互联网公司基本上都是技术型公司,有非常鲜明的技术导向;又由于创业时的艰难,他们非常热衷于利用技术手段降低成本,特别是釆用廉价的部件搭建高性能、高可靠性的系统。在数据中心的建设上也是如此。与传统数据中心相比,互联网公司没有采用传统技术,摒弃了高冗余供电系统设计,少采用甚至不釆用空调系统,大大降低了基础设施的建造成本。同时,互联网公司又使用先进的软件技术,使系统高度并行化,在应用层设置备份机制,用应用层的冗余代替了基础设施的冗余,建立起了一整套高效、可靠、廉价的系统。

  Google最为人熟知的3篇论文:GFS、MapReduce、Bigtable,是Google大规模分布式计算系统的基础模型,GFS是Google的分布式文件系统,MapReduce是并行计算模型,Bigtable是分布式结构化数据布储,它们合起来代表了Google的应用系统架构。这种架构对服务器、存储的需求与传统应用完全不同,它们不要求服务器的单机性能,但要求服务器的数量非常庞大,并且具有高速互联能力,以及大量的本地存储,另外少量服务器还需求大量内存。Google的数据中心必须提供这样的IT基础能力,再加之Google的服务器数量实在过于庞大,还必须考虑电力、水的消耗,所以Google采用了全新的数据中心设计理念,其它互联网公司,如Facebook也类似。它们采用的理念主要包括:

  1)数据中心选址:一般选择高纬度地区,并兼顾气候干燥、空气洁净、接近水源等条件。

  2)服务器定制:放弃使用标准的机架服务器或刀片服务器,按自己的需要进行定制。如Google采用整机柜高速背板设计,每一台服务器采用类似刀片服务器的设计方案,插入背板;再如Facebook采用1.5U的机架式服务器设计方案,并去除机箱顶盖,更利于散热;再如它们都使用特殊的电源设计,以接入高压直流的数据中心电源系统。

  3)自然冷源:多使用自然冷源可减少制冷机组的开机时间,而近期建设的一些数据中心已做全部使有然冷源,完全不使用冷机。在自然冷源的使用中,大部分是采用自然通风技术,还有少量采用了自然水源制冷。

  4)高压直流:除了制冷系统有全新设计外,它们在供配电系统设计上也与传统方案截然不同,如放弃使用UPS,采用全直流供电,在供电备份上也有很多创新,如直流供电与市电互备等等。

  所有这些技术的综合运用,使用这些互联网公司在低成本上构建了大规模、高效的系统。从近年来数据中心的PUE排名,可以看到互联网公司的数据中心技术已经非常领先,Facebook的美国俄勒冈数据中心PUE达到1.07,Yahoo“鸡窝”式数据中心达到1.08,Google的比利时数据中心达到1.16,而传统数据中心一般在2.5以上。

  IT设备对环境的要求是非常高的,如服务器一般要求工作温度10℃-35℃,工作湿度RH10%-90%[4],为了保持IT设备正常高效的运行,数据中心机房一般会设定温度22℃2℃,相对湿度RH50%5%,并且7*24*365的保持这样的机房环境。要保持这样环境条件,精密空调系统一般是必不可少的。在数据中心的能耗分布,空调系统的电力消耗是除了IT设备之外最大的。

  从上图我们可以看到,在传统数据中心中,用于制冷系统的能耗几乎占到总能耗的35%-45%(Chiller+Humidifier+CRAC)。

  PUE值越低意味着除IT设备之外的能源消耗越少,也就是数据中心越节能。而除IT设备耗能之外的能耗主要是在制冷设备的能耗和供配电设备的损耗,因此减少制冷系统的能耗和供配电系统的损耗是绿色节能设计的主要方向。

  当前先进的数据中心的设计中,无一例外的都采用了自然冷却(Free Cooling)技术。按维基百科的解释,自然冷却的定义如下:

  制冷(Cooling)是指从空间或从对空间的送风中移走热量,以抵消空间获得的热量。通俗的讲,制冷并不是真的制造出了冷,而且把室内的热量移到室外,一般采用的方法是通过对冷媒的压缩、蒸发,人为的制造出冷源,再运用热交换技术把室内热量带走。

  而自然冷却则不使用冷媒,无需人工制造冷源,直接把室外的冷源引入室内,达到冷却的目的。目前广泛采用的自然冷却方法主要有水侧自然冷却和风侧自然冷却2种方式,而风侧自然冷却又分为自然通风(Natural Ventilation)和热交换2种方式。本文毛要介绍自然通风方式。

  下图是一种典型的白然通风冷却方案的结构,从中我们可以石一到自然冷却方案的主要原理是:室外冷空气导入室内,与室内热气混和,再经过一定的过滤处理,以调节温度和湿度,最后通过风机把混和后的冷空气送入机房内。通过散热形成的热空气再与新的室外冷空气混和,多余的热气直接排入室外。

  目前Google. Facebook, Yahoo以及Intel. Microsoft均建有类似方案的数据中心。Facebook的普赖恩维尔数据中心在俄勒冈州普赖恩维尔(Prineville, Oregon)到雷德蒙德(Redmond, Oregon)之间,它全年都采用了自然通风制冷的方案,完全不使用制冷机组,再加之其它方面的节能设计一,根据Facebook自己公布的数据,PUE可达到1. 07。

  首先,从选址上看,普赖恩维尔属于高纬度高原沙漠类型地貌,全年平均气温只有8. 2度,相对湿度呈现夏季低、冬季高的分布情况,这对采用数据中心采用自然通风提供非常有利的自然条件,降低了温度、湿度控制的难度。除了极端天气的情况,不论是夏季或冬季均可以采用自然通风。而假如出现夏季25℃以上情况,由于湿度低,也可通过水喷淋降湿的方法使室外空气达到输入机房的条件。OCP(Open Compute Project)公布了这个数据中心的设计规格,其中对室外空气条件描述如下:

  首先该数据中心建筑有两层,一层是数据中心机房及动力房,二层是完全用于空气处理。室外新风首先通过一道百叶窗进入二楼的室外新风室,百叶窗可以阻挡树枝等大的杂质进入室内, 同时新风室还有排水渠用于在雨天排水。

  然后室外冷空气会通过一个风阀导入下一个房间一一空气混和室, 当然在这之前会进行一个初步过滤, 如砂子、灰尘等会在这一阶段过滤掉。同时由机房排出的部分热空气也会通过另一个风阀导入空气混和室,冷空气、热空气充分混和后形成温度、湿度合适的空气。多余的机房热空气则会直接排出室外。

  混和空气再通过空气过滤组(Filter Bank)进行空气净化,这个步骤主要解决2个问题,一是过滤掉一些微小的悬浮颗粒,二是化学处理掉对电子设备有腐蚀作用的成分, 如硫化物等。第二步根据当地空气质量确定如何去做。如果当地空气洁净, 没有污染, 则基本无需进行化学过滤。

  接下来的环节是进行冷却和加湿处理。混和空气会进行蒸发冷却/湿房, 通过喷水雾的方式, 利用蒸发的原理进行降温, 同时也会增加湿度。

  空气处理的最后一步就比较简单了,通过整面的风扇墙,把处理好的空气送入一楼的机房。

  一般数据中心在制冷方面的能耗太高、容易出现局部温度热点, 主要是因为气流组织不合理,机房内出现了冷空气与热空气的直接对流混和,这会使得部分空调输出的冷量没有用于设备散热。因此,不论是否采用自然通风方案,冷热通道隔离都是必须的,如果进行冷或热通道封闭,那隔离效果就更好了。

  Facebook普赖恩维尔数据中心采用的是热通道封闭,这主要是因为设备散热后形成的热空气需要导入到二层的空气混和室, 热通道封闭后可以形成一个好的风道向空气混和室排风。热通道封闭也意味着冷空气也密闭在独立的空间中, 因此处理好的混和空气吹入机房的冷空间, 形成静压箱后, 冷空气就可以被服务器自动吸入进行散热了。

  在空气处理流程中,动力及环境监控系统是必须具备的重要系统, 该系统必须实时采集各环节的环境数据,包括室外及室内各房间的风速、温度、湿度等数据, 以及各控制器、阀门的遥测、遥信数据,并能发出遥控、遥调指令,使得百叶窗的开度控制阀、冷空气风阀、热空气风阀、水雾控制装置、风扇墙的风机等控制器能根据事先设计好的动作逻辑进行自动联动。

钻石赌场娱乐

上一篇:制冷经验技术交流、资料共享 下一篇:安全阀的原理和特点