在国外提供领先的数据中心设计解决方案,并分析其制冷系统中使用的关键技术,包括自然通风,自然冷源,高压直流电,直接城市电源和云计算。Facebook和谷歌等大型互联网公司的数据中心为例,详细分析这些技术的应用。据中心;自然通风;自然冷却;气流组织;云计算; PUE简介随着云计算时代的到来,互联网时代发布的IT需求被放松,导致数据中心和全球服务器的爆炸式增长。署密度进一步增加。此同时,全球能源危机即将来临,对于企业而言,计算机化程度的提高意味着运营成本的快速增长。果,密度的增加和CPUE的减少逐渐成为新一代数据中心的首选方向。下一代数据中心的技术研究和实践中,以谷歌,Facebook和雅虎为代表的互联网公司处于最前沿。谷歌为例,其中央搜索引擎的性能在很大程度上取决于数据中心的规模和效率。联网业务本质上是基于技术的技术型公司,由于创业困难,他们热衷于使用技术来降低成本,特别是实施包括高性能和可靠性的系统廉价的组件。设数据中心也是如此。传统数据中心相比,互联网公司不采用传统技术,放弃高冗余电力系统的设计,减少使用甚至使用空调系统,并大幅降低建设基础设施的成本。时,互联网公司正在使用先进的软件技术使系统高度并行,在应用层定义备份机制,用应用层冗余替换基础设施冗余,并建立一套高效,可靠和廉价的系统。Google的三篇最着名的文章:GFS [1],MapReduce [2],Bigtable [3],是Google广泛分布的计算系统的基本模型,GFS是Google的分布式文件系统和MapReduce是一个并行计算机模型。Bigtable是一个分布式结构化数据存储库,代表Google的应用程序架构。传统应用程序相比,此体系结构具有完全不同的服务器和存储要求:它们不需要独立服务器的性能,但需要大量服务器,高速互连功能和大型服务器本地存储,以及需要大量内存的少量服务器。
歌的数据中心需要提供这样的IT基础设施。外,谷歌服务器太大,冷库安装还必须考虑能源和水的消耗。就是为什么谷歌采用了新的数据中心设计理念。们使用的概念包括:数据中心位置:一般选择高纬度地区,考虑到干燥的天气条件,清洁的空气和靠近水的地方。)服务器自定义:放弃使用标准机架服务器或刀片服务器并对其进行自定义以满足您的需求。如,Google为每个机架使用高速背板设计:每个服务器采用类似刀片的设计并插入背板。一个例子是Facebook的1.5U机架式服务器设计,并移除机箱顶盖,进一步促进散热。为它们都使用特殊的电源设计来访问数据中心的高压电源系统。然冷源:使用天然冷源可以缩短制冷机组的启动时间。些新建的数据中心使用所有冷源,根本不使用冷机。使用天然冷源时,大多数都使用自然通风技术和天然水源的少量冷藏。压直流:除了制冷系统的新设计外,它们与电力和配电系统设计中的传统解决方案也有很大不同:例如,废弃了逆变器的使用,整个电源CC被用于应急电源的许多创新,例如直流电源和城市。互电气设备等。有这些技术的结合使用是利用这些互联网公司以大规模和低成本构建高效系统。年来PUE数据中心的排名显示,互联网公司数据中心的技术非常先进:Facebook上的美国俄勒冈州数据中心达到1.07,“窝巢”的数据中心雅虎的母鸡达到1.08,谷歌的比利时数据中心达到1.16。统的数据中心通常大于2.5。冷系统计算机系统的环境要求非常高:例如,服务器通常需要10°C至35°C的工作温度和10%至90%的相对湿度[4]。了保持计算机设备的正常和高效运行,计算机中心室将温度设置为22°C±2°C,相对湿度RH50%±5%和7 * 24 * 365以保持这样的周围环境。了保持这种环境条件,精密空调系统通常是必不可少的。数据中心的能量分配中,除了计算机设备之外,空调系统的电力消耗是最大的。图显示,在传统数据中心,制冷系统的能耗约占总能耗的35%至45%(冷却器 加湿器 CRAC)。下是CPUE概念的简要介绍。源使用效率(PUE)是评估数据中心能效的指标:它表示数据中心消耗的所有能量与计算负载使用的能量之间的比率,并且与数据中心(DCiE)的效率成反比。
装总功率:计算机设备的功率:计算机设备的总能耗PUE值越低,计算机设备以外的能耗越低,即说数据中心更节能。IT设备的能耗外,主要消耗制冷设备的能耗和电力和配电设备的损耗。此,降低制冷系统的能耗和电力和配电系统的损失是生态设计的主要方向。当前先进数据中心的设计中,使用自然冷却技术无一例外。据维基百科的说法,自然冷却的定义如下:自然冷却是一种使用低室外空气温度来促进水冷却的经济方法,然后可用于工业过程或过程。
调系统。空间移除热量或从空间供应空气以补偿空间获得的热量。般来说,制冷不会真正产生冷量,内部热量会传递到外面。般的方法是压缩和蒸发制冷剂,人为地产生冷源,然后使用技术热交换放置内部。除热量。
特尔新墨西哥数据中心免费冷却图目前,谷歌,Facebook,雅虎,英特尔和微软都拥有提供类似解决方案的数据中心。Prayneville Facebook数据中心位于Prieville(俄勒冈州)和Redmond(俄勒冈州)之间,全年使用自然通风和冷却,没有制冷设备。了节能设计的其他方面,根据Facebook发布的数据,CPUE可以达到1.07。先,Pryenville是高纬度地区高原荒芜地形的一部分:年平均温度仅为8.2°C,相对湿度表示夏季和冬季气温偏低的分布。对于在数据中心使用自然通风非常重要。利的自然条件降低了控制温度和湿度的难度。极端天气条件外,夏季或冬季还可以使用自然通风。是,如果夏天温度高于25°C,由于空气湿度低,外部空气可以通过喷水进入机舱状态。湿。OCP(开放计算项目)已经公布了该数据中心的设计规范,其中描述了如下室外空气条件:)夏季:110? FDB(最大干球),70.3? FWB(最大湿球)(105.6?F是最高的极端年50和70.3?F是1972年至2001年间由ASHRAE在俄勒冈州雷德蒙德记录的最差的WB))冬季:-30.8?互联网上FDB,50%RH,0.55粒(ASHRAE至少50年)Pleasantville的历史天气数据如下:下图显示了Pleasantville中心的气流组织方向。
人愉快的Facebook数据。先,数据中心大楼有两层,一层是计算机房和电力室,二层完全用于空气处理。鲜的室外空气首先通过百叶窗进入二楼新鲜空气室,防止树枝等大量杂质进入室内,也有助于排出雨天。后,寒冷的外部空气将通过一个记录器引入下一个房间 - 空气混合室,当然,在进行初步过滤之前,如沙子,灰尘等。此时将被过滤。时,从发动机室排出的一部分热空气也通过另一个阻尼器引入混合室,冷空气和热空气完全混合,形成温度和热量的空气。当的湿度。自房间的多余空气将直接排到外面。后,过滤器组净化混合空气,主要解决两个问题:悬浮液中微小颗粒的过滤和化学设备(如硫化物)的腐蚀性组分的化学去除。待第二步是根据当地的空气质量确定如何进行。果当地空气清洁且没有污染,原则上不需要化学过滤。一步是冷却和加湿。合空气将通过蒸发冷却/加湿,并且根据蒸发原理通过用水雾化降低温度,这也将增加湿度。气处理的最后一步相对简单:经处理的空气通过风扇壁送到第一级发动机室。键技术分析)热流道关闭一般数据中心在制冷过程中消耗过多能量,并受到局部温度热点的影响,这主要是由于气流的不合理组织和直接对流。房内有冷空气和暖风。些空调的制冷量不用于散热。此,无论是否采用自然通风系统,都需要冷热通道的隔热,如果冷通道或热通道关闭,隔热效果更好。
Facebook数据中心Prayneville采用热通道封闭,这主要是因为设备散热所形成的热空气必须引入第二级空气混合室。风。闭的热通道还意味着冷空气也被密封在单独的空间中,使得处理过的混合空气被吹入发动机室的冷空间。旦形成静压室,服务器就可以自动吸收冷空气以散热。动控制系统在空气处理过程中,电力和环境监测系统是必须提供的重要系统:系统必须收集每个环节的环境数据,包括每个房间的风速,温度,湿度和其他数据,无论是室内还是室内。制器,遥测阀,远程信号数据,可发出远程指令,遥控指令,如盲门开启控制阀,冷风风门,热风风门,水雾控制装置,壁扇和其他控制器基于预先设定的运动逻辑的自动连接。制逻辑是该系统的基本技术,我们目前正在进行研究和实验。
本文转载自
冷库安装 https://www.iceage-china.com