艾思吉-冷库安装_冷库价格_冷库工程_提供优质的酒店冷库超市冷库厨房冷库小型冷库冷库建造水果冷库药品冷库蔬菜冷库海鲜冷库

  • 首页
  • 公司介绍
    • 公司简介
    • 服务介绍
    • 经营理念与团队建设
    • 正品承诺
  • 案例日志
  • 产品系列
    • 冷藏库
      • 水果冷库
      • 蔬菜冷库
      • 鲜花冷库
      • 茶叶冷库
      • 鸡蛋冷库
    • 冷冻库
      • 海鲜水产冷库
      • 冻肉冷库
      • 雪糕冷饮冷库
    • 行业冷库
      • 医药冷库
      • 酒店餐饮冷库
    • 制冷设备与配件
      • 制冷机组
      • 冷风机
      • 冷库板
  • 联系我们
    主页 > 新闻中心 > 行业资讯 >
 

冷库建造:数据中心面临着冷却问题

2019-03-25 / Published in 行业资讯

  随着服务器等IT设备提高处理能力,其散热量也会增加:传统的冷却和冷却通道,空气冷却和其他制冷技术都会遇到机柜瓶颈。却和整个数据中心。开始走在舞台上。ILM(Industrial Light&Magic)最近用最流行的IBM BladeCenter服务器取代了旧服务器。过这一举措,ILM将使数据中心内单个机柜的能耗平均降低140 kW,经济性降低84%。而,新机柜的热密度现在更高:每个机柜的功率为28 kW,而之前的功率为24 kW。
  种电力最终转化为热量,热量不可避免地通过外壳分配到数据中心,最后被数据中心空调系统带走。ILM主要专门为计算机生成特效,它们形成了一个用于图像处理的渲染农场。个新机柜配备84个刀片服务器,每个服务器有两个四核处理器和32 GB内存。三年前购买的BladeCenter相比,这些服务器非常强大,服务器具有与前七个相同的处理能力。而,新的42U机柜产生的热量相当于9个家用烤箱的最高温度。于冷却,ILM数据中心空调系统几乎满负荷运行。键基础设施服务副总裁兼总经理Peter Gross表示,近年来大多数新建数据中心的冷却能力为每平方英尺100至200瓦,冷却能力为每柜4千瓦。计冷却能力为200瓦的数据中心可以支持机架中平均5千瓦的热密度。
  果气流方向经过精心设计和优化,则室内空调系统可满足25 kW机柜的冷却要求。在,ILM的数据中心每个机柜使用28千瓦,这已经是现有房间空调系统的最大负载。IBM研究员兼总工程师Roger Schmidt致力于研究数据中心的能源效率,他说:“ILM计算密度不应该继续增加。现在的问题是下一步:接下来会发生什么?“如果未来的电力消耗继续增加,可能是由于制冷问题。无法解决,我们无法向中心添加更多外围设备事实上,这个问题已经开始出现,“施密特说。密特估计超过30 kW的高功率密度计算将不得不依赖水冷。是,其他专家表示,数据中心设备制造商可以共同努力降低服务器部署成本,因此服务器不会在机架中混乱,而是单独放置,因此柜子里的热量密度既不高也不高。ILM的信息技术总监Kevin Clarke对新刀片服务器所带来的计算能力和节能效果感到满意,这与当前的节能趋势一致。重环境。
  据IDC的研究,服务器的平均价格自2004年以来下降了18%,而处理器成本下降了70%,达到715美元。是,如果计算密度继续呈指数增长,Clark不知道他自己的计算机房会持续多久。“利用机房现有的设备,如果计算密度增加一倍,从冷却需求的角度来看很难满足需求,”他说。并不是唯一担心制冷问题的人。40多年来,计算机行业按照摩尔定律迅速发展,其计算密度每两年翻一番。在,一些数据中心的工程师和设计师开始怀疑这条道路的可持续性,因为它似乎已经走到了尽头。天,挑战不仅在于了解芯片制造商是否能够克服制造更复杂晶体管的技术挑战,而且还要考虑现代数据中心管理和管理尽可能多的机柜是否具有成本效益。度高。代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜的功耗大大增加,而且还包括所有辅助设施的容量和功耗。部相应增加,包括冷却系统和配电设备。UPS和发电机都将按比例增加。值得数据中心经理的关注。2009年,IDC调查了1,000个数据中心,21%的受访者表示,电力和冷却是当今数据中心面临的最大挑战。一半(43%)表示这是运营成本增加的主要原因,三分之一表示由于冷却或电力问题导致运营成本下降。Christian Belady是微软全球基础设施服务部门中经验最丰富的基础架构架构师,负责微软最近在华盛顿州Quincy的数据中心的设计和管理。表示,以活动地板的形式建设数据中心单位的成本太高,而且在Quincy建设微软数据中心基础设施占总成本的82%该项目。“我们必须改变我们的误解,即过去的计算密度越高越好,”贝拉迪说。“知道设计密度翻倍意味着所有辅助设施和制冷系统的容量增加了一倍。计算出的数据中心每单位面积的密度增加即使整体机电成本变化不大,由于功率密度的增加而导致的运行成本也大大增加。IBM的Schmidt表示,对于新数据中心而言,最大的投资不是建筑本身,而是为公司供电所需的设备成本和相应的冷却成本。算机密度的增加导致一些主要的数据中心建设项目超过10亿美元。密特说:“总统层面的许多人都对这种对新数据中心的投资感到震惊。 Gartner的分析师Laksh Kumar表示,在功耗和成本方面,功率密度无法增长到无穷大。运的是,在大多数企业中,数据中心机柜的功耗未达到ILM管理的水平。约40%的Gartner客户在数据中心每个机架的功率为8至9 kW,有些甚至达到12至15 kW。一例外,趋势正在上升。在,一些企业数据中心和一些提供托管服务的企业数据中心开始监控电力的使用并将其用作数据中心。们以前只对租用的房屋收费,根本就没有考虑。少电。IDC对于根据用电量决定收费多少的大客户更为积极。户首先建议使用最大电量,然后IDC相应地分配相应的空间。付电费而不是空间然而,期望客户不仅知道他们需要租用什么设备,而且知道安装机柜需要多少电力也是不现实的。“对于一些客户来说,这是非常现实的,”服务器托管服务Terremark执行副总裁斯图尔特反驳道。际上,Terremark采用这种方法的方法也是根据客户需求量身定制的。“许多客户发现我们告诉我们他们需要多少能源,让我们为他们预留空间,”他说。果客户不知道他的机柜中使用了多少能源,Terremark还将为该公司提供一条完整的电缆,通过该电缆为客户的机柜供电,并且功耗将很明显。IBM的Schmidt认为功率密度可能会进一步提高,但数据中心冷却解决方案需要不断发展。ILM数据中心于2005年完工,旨在提供每平方英尺200瓦的功率,这就产生了无法有效解决建筑物内部冷却问题的问题。密度柜。ILM采用了冷/热通道设计,经理调整了冷通道上炉排板的数量和位置,以优化机柜中的流量。是,为了避免机柜内的局部热点,空调系统必须确保机房的13,500平方英尺不超过18.5摄氏度。拉克知道这是浪费。前的计算机设备设计在27摄氏度以上的温度下运行,因此它专注于一种称为密封冷通道的技术。际上,一些数据中心试图在高热密度的某些位置密封热通道和冷通道,包括隧道两端的门,以防止热空气和冷空气进入。过机柜顶部和天花板之间的空间混合。用隔板密封。了这些方法,一些数据中心允许冷空气直接从机柜底部进入,与机柜中的计算机设备进行热交换,然后逐渐加速,最后进入机柜。流通过机柜顶部出口的空气通道,然后将管道传递到天花板顶部。来创建一个闭环制冷系统,冷库建造完全避免冷热空气的混合。“冷/热通道方法是一种传统的非最佳方法,”埃森哲数据中心技术和运营经理Rocky Bonecutter说。“最新的趋势是围栏转移热冷空气。 Gross估计,如果数据中心使用这项技术,普通计算机房的空调系统可以满足每个机柜约25千瓦的冷却需求。“当然,这需要仔细隔离冷热气流,防止交叉流动和优化气流轨迹。些任务必须得到解决并成为常规”,他说。宣称。果数据中心重新配置为当前标准可以降低功耗并解决散热问题,单个机架的功率会变得更大,带有最新刀片服务器的机柜具有更大的功率在25千瓦。过去的五年中,IT部门重新设计了橱柜设计,活动地板等,并优化了气流。果机柜中的热量密度继续增加,安装密封的围栏将是冷却房间的最后手段。空气冷却到液体冷却?一些数据中心已开始转向液体冷却,以解决高热密度机柜中的热点问题。

冷库建造:数据中心面临着冷却问题_no.581

  常见的液体冷却技术是窄耦合制冷,它使用软管将冷冻液体(通常是水或乙二醇)输送到活动地板或直接输送到外壳内,然后通过风和冷藏液体。们之间的热交换使得冷却机柜内部成为可能。Cooma估计,20%的Gartner公司使用一种液体冷却方式,至少在一些高密度机柜中,使用了液体冷却。IBM的施密特表示,使用计算机房整体冷却的数据中心,特别是那些必须使用更大的机柜空调以应对高热密度的数据中心,可以节省大量电力使用液体冷却。微软的Belady认为,液体冷却仅限于相对狭窄的领域:高性能计算。“如果你想将冷却液体送到芯片上,成本会立即增加。早会有人提出这样的问题:这种方法太贵了,我为什么要用呢?” Belady认为,遏制计算保持密度的最佳方法是更改​​数据中心的计费模式。软现在已经改变了它的成本分摊方法,而不是只收取用户的空间和机柜的使用,但开始考虑用户的功耗。用这种充电方法后,情况立即得到改善,每个机柜的功耗开始下降。“如果根据用电量评估成本,机柜中的热密度自然会降低,”他说。微软开始对电力收费以来,用户并没有专注于在尽可能小的空间内获得最强大的处理能力,而是通过功耗最大化处理能力最小的。“这并不意味着在改变充电策略后机柜中不会有更高的热密度 - 最终它取决于所提出的解决方案的整体能效。根据占用的空间加载,100%将导致高热密度。贝拉迪说。今,许多IT供应商的产品都是针对最高热密度而设计的,并且还愿意为高热密度环境购买更昂贵的服务器,以节省行业空间。房。为很多电脑房都按照占用的空间收费。所周知,较高的能耗会导致能量分配设备和冷却能耗的相应增加,从而降低能耗。实上,80%的运营成本随着用电量的增加而增加。如,机电基础设施必须提供机柜所需的能量,同时冷却这些机柜中的设备。Belady是惠普的一名优秀工程师,致力于服务器设计。说,应考虑计算机设备的设计,使这些设备能够在更高的温度下可靠运行。如,电气设备必须设计成在27摄氏度以上的温度下运行。前的设计温度定于2004年。年,ASHRAE(美国制冷与空调工程师协会)规定设计温度为22.2°C(72°F)。是,Belady认为,在温度高于27度的情况下运行的数据中心设备可以提高能效。“一旦允许机房在更高的温度下运行,门就会打开,例如,您可以使用室外空气来冷却房间,因此您无需安装尽可能多的房间冷却装置作为机柜的热密度。它不能太高。说,一些相对低温区域的数据中心已经开始尝试在冬天关闭冷却装置,并使用外面的冷空气来免费冷却房间。算可以在35摄氏度运行,许多数据中心很难全年使用空气冷却器.Belady补充道:“如果硬件可以在50摄氏度下运行,那么所有世界各地的数据中心不再需要空调,这将彻底改变其运营。幸的是,至少现在不太可能。Belady希望硬件更强大,但他也认为服务器比大多数数据中心经理想象的更强大。说,业界需要重新思考它的工作原理以及它如何管理分布式计算系统。据Belady的说法,理想的策略是开发一个系统,其中每个机柜都针对特定的功率密度和工作负载进行了专门优化,确保每个机柜始终是最高效和最节能的。过这种方式,电力和冷却资源将以最有效的方式使用,既不过度使用也不浪费。“如果你的基础设施使用不当,从可持续发展的角度来看,问题比过度使用更严重,”他说。Belady认为,未来的数据中心可以向两个方向发展:高性能计算将使用液体冷却,而其他企业数据中心和基于Internet的数据中心(如Microsoft数据中心) )将继续使用风。却冷却方法。是,这些数据中心可以设置在土地价格较低且电力成本较低的地方,以便它们可以继续增长。尔企业产品部门首席技术官保罗·普林斯认为,大多数数据中心不会很快遇到高功率密度问题。个机架的平均功率密度始终在可以支持计算机房空调系统的范围内。说,冷热通道分离方法和隔热冷风气流的围栏设计方法人为地在机舱内打开了一个“冷却区”,以便解决在某种程度上,数据中心的本地热点问题。“数据中心的功率密度和热密度肯定会继续增加,但这种变化必须是渐进的。在ILM,Clark指出冷却与液体作为制冷剂紧密结合是一个大趋势。大多数同行一样,数据中心使用液态制冷剂引起了一些担忧。他也认为成功的基础设施必须采用这些新方法。“虽然目前这有点不可接受,但液体冷却是一个主要趋势,因此我们将尽快改变我们的概念,只要这些技术能真正帮助我们解决问题,”克拉克说。联数据中心,八个节能镜头升级服务器。
  一代服务器提供更强大的处理能力,更节能。时,尝试购买符合高能效标准的服务器硬件。些设备的购买成本可能更高,但从长远来看,这将节省运营成本。用电量收费。据空间大小改变传统的充电模式,使用电力消耗作为充电参数之一,可以鼓励客户采用更高效的设备。虑密封冷热通道。果数据中心采用冷/热通道设计且机柜功率超过4 kW,则下一步是使用冷热通道密封技术,包括关闭门通道的两端与隔板隔开,以防止冷热空气混合。用变速风扇。
  算机房中的空调系统安装在风扇上,以便在排出热空气的同时将冷空气输送到预定位置。果风扇速度降低12.5%,能耗将减少一半。用电源管理功能。多数服务器都具有节能技术,例如在睡眠模式下控制风扇速度和降低处理器功耗,但默认配置未启用许多数据中心经理尚未启用它。了系统的高可用性和响应性要求外,建议尽可能地启用这些功能。数据中心进行分区。据中心分为几个隔离区域,每个区域都有自己的电源和冷却系统。板的冷热空气也是隔热的。时,可以安装挡板和格栅以允许空气流通。化将冷空气直接送到热点。功率密度机柜最容易受到当地热点的影响,气候控制系统对此无能为力,除非空调系统显着降低机房温度。有利润。时,可以考虑热点辅助冷却,例如通过管道将液体制冷剂输送到热点。测温度。监控机房的整体温度是不够的,还必须在机柜中安装温度传感器,以检查机柜中的热点。
  本文转载自
  冷库建造www.iceage-china.com

冷库安装视频
冷库视频
3000吨的冷库出租一年能赚多少钱?
冷库制冷车间主要危险有害因素识别
什么牌子的冷库好?冷库品牌
建一个20平米冷库需要多钱?租一个月需要多钱?
冷库分为哪几种?
冷库专用灯_冷库专用灯价格_优质冷库专用灯批发/采购
如何正确使用冷库
什么是冷库
冷库(恒温贮藏冷气设备)蔬菜冷库 海鲜冷库 超市冷库 水果冷库 药品冷库

文章分类

  • 公司新闻
  • 案例日志
  • 行业资讯

关于艾思吉

  • 公司介绍
  • 服务介绍
  • 经营理念与团队建设
  • 正品承诺
  • 案例日志
  • 产品系列

业务咨询

咨询热线:188 5754 6802(朱经理)
周一至周日 8:00 – 20:00
电子邮箱: general@iceage-china.com

联系地址

浙江省 宁波市 鄞州区
首南街道,萧皋西路615号

© 2015 宁波艾思吉制冷设备有限公司 all rights reserved. | 浙ICP备2021019453号-2 | 浙公网安备 33021202000506号

TOP