随着服务器等IT设备提高处理能力,其散热量也会增加:传统的冷却和冷却通道,空气冷却和其他制冷技术都会遇到机柜瓶颈。却和整个数据中心。开始走在舞台上。ILM(Industrial Light&Magic)最近用最流行的IBM BladeCenter服务器取代了旧服务器。过这一举措,ILM将使数据中心内单个机柜的能耗平均降低140 kW,经济性降低84%。而,新机柜的热密度现在更高:每个机柜的功率为28 kW,而之前的功率为24 kW。
种电力最终转化为热量,热量不可避免地通过外壳分配到数据中心,最后被数据中心空调系统带走。ILM主要专门为计算机生成特效,它们形成了一个用于图像处理的渲染农场。个新机柜配备84个刀片服务器,每个服务器有两个四核处理器和32 GB内存。三年前购买的BladeCenter相比,这些服务器非常强大,服务器具有与前七个相同的处理能力。而,新的42U机柜产生的热量相当于9个家用烤箱的最高温度。于冷却,ILM数据中心空调系统几乎满负荷运行。键基础设施服务副总裁兼总经理Peter Gross表示,近年来大多数新建数据中心的冷却能力为每平方英尺100至200瓦,冷却能力为每柜4千瓦。计冷却能力为200瓦的数据中心可以支持机架中平均5千瓦的热密度。
果气流方向经过精心设计和优化,则室内空调系统可满足25 kW机柜的冷却要求。在,ILM的数据中心每个机柜使用28千瓦,这已经是现有房间空调系统的最大负载。IBM研究员兼总工程师Roger Schmidt致力于研究数据中心的能源效率,他说:“ILM计算密度不应该继续增加。现在的问题是下一步:接下来会发生什么?“如果未来的电力消耗继续增加,可能是由于制冷问题。无法解决,我们无法向中心添加更多外围设备事实上,这个问题已经开始出现,“施密特说。密特估计超过30 kW的高功率密度计算将不得不依赖水冷。是,其他专家表示,数据中心设备制造商可以共同努力降低服务器部署成本,因此服务器不会在机架中混乱,而是单独放置,因此柜子里的热量密度既不高也不高。ILM的信息技术总监Kevin Clarke对新刀片服务器所带来的计算能力和节能效果感到满意,这与当前的节能趋势一致。重环境。
据IDC的研究,服务器的平均价格自2004年以来下降了18%,而处理器成本下降了70%,达到715美元。是,如果计算密度继续呈指数增长,Clark不知道他自己的计算机房会持续多久。“利用机房现有的设备,如果计算密度增加一倍,从冷却需求的角度来看很难满足需求,”他说。并不是唯一担心制冷问题的人。40多年来,计算机行业按照摩尔定律迅速发展,其计算密度每两年翻一番。在,一些数据中心的工程师和设计师开始怀疑这条道路的可持续性,因为它似乎已经走到了尽头。天,挑战不仅在于了解芯片制造商是否能够克服制造更复杂晶体管的技术挑战,而且还要考虑现代数据中心管理和管理尽可能多的机柜是否具有成本效益。度高。代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜的功耗大大增加,而且还包括所有辅助设施的容量和功耗。部相应增加,包括冷却系统和配电设备。UPS和发电机都将按比例增加。值得数据中心经理的关注。2009年,IDC调查了1,000个数据中心,21%的受访者表示,电力和冷却是当今数据中心面临的最大挑战。一半(43%)表示这是运营成本增加的主要原因,三分之一表示由于冷却或电力问题导致运营成本下降。Christian Belady是微软全球基础设施服务部门中经验最丰富的基础架构架构师,负责微软最近在华盛顿州Quincy的数据中心的设计和管理。表示,以活动地板的形式建设数据中心单位的成本太高,而且在Quincy建设微软数据中心基础设施占总成本的82%该项目。“我们必须改变我们的误解,即过去的计算密度越高越好,”贝拉迪说。“知道设计密度翻倍意味着所有辅助设施和制冷系统的容量增加了一倍。计算出的数据中心每单位面积的密度增加即使整体机电成本变化不大,由于功率密度的增加而导致的运行成本也大大增加。IBM的Schmidt表示,对于新数据中心而言,最大的投资不是建筑本身,而是为公司供电所需的设备成本和相应的冷却成本。算机密度的增加导致一些主要的数据中心建设项目超过10亿美元。密特说:“总统层面的许多人都对这种对新数据中心的投资感到震惊。 Gartner的分析师Laksh Kumar表示,在功耗和成本方面,功率密度无法增长到无穷大。运的是,在大多数企业中,数据中心机柜的功耗未达到ILM管理的水平。约40%的Gartner客户在数据中心每个机架的功率为8至9 kW,有些甚至达到12至15 kW。一例外,趋势正在上升。在,一些企业数据中心和一些提供托管服务的企业数据中心开始监控电力的使用并将其用作数据中心。们以前只对租用的房屋收费,根本就没有考虑。少电。IDC对于根据用电量决定收费多少的大客户更为积极。户首先建议使用最大电量,然后IDC相应地分配相应的空间。付电费而不是空间然而,期望客户不仅知道他们需要租用什么设备,而且知道安装机柜需要多少电力也是不现实的。“对于一些客户来说,这是非常现实的,”服务器托管服务Terremark执行副总裁斯图尔特反驳道。际上,Terremark采用这种方法的方法也是根据客户需求量身定制的。“许多客户发现我们告诉我们他们需要多少能源,让我们为他们预留空间,”他说。果客户不知道他的机柜中使用了多少能源,Terremark还将为该公司提供一条完整的电缆,通过该电缆为客户的机柜供电,并且功耗将很明显。IBM的Schmidt认为功率密度可能会进一步提高,但数据中心冷却解决方案需要不断发展。ILM数据中心于2005年完工,旨在提供每平方英尺200瓦的功率,这就产生了无法有效解决建筑物内部冷却问题的问题。密度柜。ILM采用了冷/热通道设计,经理调整了冷通道上炉排板的数量和位置,以优化机柜中的流量。是,为了避免机柜内的局部热点,空调系统必须确保机房的13,500平方英尺不超过18.5摄氏度。拉克知道这是浪费。前的计算机设备设计在27摄氏度以上的温度下运行,因此它专注于一种称为密封冷通道的技术。际上,一些数据中心试图在高热密度的某些位置密封热通道和冷通道,包括隧道两端的门,以防止热空气和冷空气进入。过机柜顶部和天花板之间的空间混合。用隔板密封。了这些方法,一些数据中心允许冷空气直接从机柜底部进入,与机柜中的计算机设备进行热交换,然后逐渐加速,最后进入机柜。流通过机柜顶部出口的空气通道,然后将管道传递到天花板顶部。来创建一个闭环制冷系统,冷库建造完全避免冷热空气的混合。“冷/热通道方法是一种传统的非最佳方法,”埃森哲数据中心技术和运营经理Rocky Bonecutter说。“最新的趋势是围栏转移热冷空气。 Gross估计,如果数据中心使用这项技术,普通计算机房的空调系统可以满足每个机柜约25千瓦的冷却需求。“当然,这需要仔细隔离冷热气流,防止交叉流动和优化气流轨迹。些任务必须得到解决并成为常规”,他说。宣称。果数据中心重新配置为当前标准可以降低功耗并解决散热问题,单个机架的功率会变得更大,带有最新刀片服务器的机柜具有更大的功率在25千瓦。过去的五年中,IT部门重新设计了橱柜设计,活动地板等,并优化了气流。果机柜中的热量密度继续增加,安装密封的围栏将是冷却房间的最后手段。空气冷却到液体冷却?一些数据中心已开始转向液体冷却,以解决高热密度机柜中的热点问题。
一代服务器提供更强大的处理能力,更节能。时,尝试购买符合高能效标准的服务器硬件。些设备的购买成本可能更高,但从长远来看,这将节省运营成本。用电量收费。据空间大小改变传统的充电模式,使用电力消耗作为充电参数之一,可以鼓励客户采用更高效的设备。虑密封冷热通道。果数据中心采用冷/热通道设计且机柜功率超过4 kW,则下一步是使用冷热通道密封技术,包括关闭门通道的两端与隔板隔开,以防止冷热空气混合。用变速风扇。
算机房中的空调系统安装在风扇上,以便在排出热空气的同时将冷空气输送到预定位置。果风扇速度降低12.5%,能耗将减少一半。用电源管理功能。多数服务器都具有节能技术,例如在睡眠模式下控制风扇速度和降低处理器功耗,但默认配置未启用许多数据中心经理尚未启用它。了系统的高可用性和响应性要求外,建议尽可能地启用这些功能。数据中心进行分区。据中心分为几个隔离区域,每个区域都有自己的电源和冷却系统。板的冷热空气也是隔热的。时,可以安装挡板和格栅以允许空气流通。化将冷空气直接送到热点。功率密度机柜最容易受到当地热点的影响,气候控制系统对此无能为力,除非空调系统显着降低机房温度。有利润。时,可以考虑热点辅助冷却,例如通过管道将液体制冷剂输送到热点。测温度。监控机房的整体温度是不够的,还必须在机柜中安装温度传感器,以检查机柜中的热点。
本文转载自
冷库建造www.iceage-china.com